一个本地运行的 DeepSeek 加上 Cursor,是不是目前一个程序员的终极解决方案?
通过自己筛选过的文档强化一下本地模型,加上 Cursor 是不是就是目前最好的 AI 辅助方式?
多大的模型?什么配置的电脑可以跑?
32b 的模型只要显存大于 20GB 就可以跑
#20
这个水平也一般吧,跑本地有什么意义?
官网 api 也是白菜价
现在 DeepSeek API 在 cursor 部署的话好像没法解锁所有功能,还得开 cursor 的会员
直接跑 api ,都已经用 deepseek 就没必要用 cursor ,直接 vs 插件或者 copilot
你这本地能跑的都是拿 r1 蒸馏的 qwen 之类的小模型吧,本地怎么可能能跑 v3 和 r1 。
是的 白菜价
这么便宜的 api ,用不着自己跑吧,我这 10 块钱用了一个礼拜了,直接就 Roo Cline 插件就完事,
本地跑的电费估计都比 api 贵了
7900xtx 带 32b 轻松 带不动 70b 本地运行的成本其实还是有点高的
api 白菜价了呀,本地跑不满血的 r1 ,图啥呢,隐私要求那么高?
都白菜价了, 直接 api 得了, 除非企业内部, 可能有自己部署的需求
32b 的模型依然渣渣 ,建议不要问,亲自租一台 GPU server 部署试一试。
我试了 R1 蒸馏出来的 Qwen 32B 模型,看 benchmark 感觉不错,然而实际用起来和原版 R1 差很多
deepseek 的意义实际上就是可以摆脱云端的服务,本地运行一个能力不错的模型,并且保有私有的数据
话说 cline 支持 r1 模型吗?
q4 量化且是蒸馏 r1 知识微调的 qwen 才是你手上用的模型。这和本体效果差忒多了。
cline+deepseek v3 用了一个月,没有人提到在编程方面,大概十次基于文件夹方面的问答就会卡顿吗?
本地的模型都是💩
本地模型最终肯定会成功的。十年后可能 1T 显存也是白菜价。
render 页面控制台上会出错,怎么处理? 改成 async: false ,不太优雅。看别人页面上转圈圈,直到数据返回,这个怎么实现的。 不是应该加一个 loading…
以前本站发布过一篇《程序员的进化》,以一种幽默的代码展现方式调侃了程序。下面这篇是关于Python程序员的。以阶乘为例,很有意思。 目录 新手程序员 第一年的刚学完Pasc…
网上不少开源项目是相当有价值的,但国人的开源项目好像没多少,挺好奇国内怎么没听说这类开源组织维护某某项目呢? 可能是我孤陋寡闻? 国内忙着上班 996 ,哪有这个时间.. …
合速度