R1-0528 已死,曾经沧海难为水,除却巫山不是云
我之前看 OpenAI 把 GPT 从 4o 变成 5 ,很多人要求把 4o 还回来了,认为奥特曼杀死了 4o ,我觉得难以理解,直到现在 deepseek 把 R1 变成了 v3.1 ,突然对面不再是熟悉的感觉,同样的输入,完全不同的输出,有点 emo 了。
我认为 R1-0528 是最懂中文的模型,既能读懂表层意思,又能读懂言外之意,而且对用户心理洞察非常强,不需要过多提示词就能很好输出,我一直将它作为强力学习助手,但现在它消失了。
我思考了大模型升级究竟意味着什么?一种是“升级”,一种是“替代”。
这里所说的“升级”,对于 AI 公司来说,训练方式和架构没有太大改变,只是改进,甚至没有创新,对于用户来说,则意味模型的一致性被保留下来了,也就是熟悉感。原版 R1 到 R1-0528 可以理解为一种升级。
另外一种则是“替代”,后来居上的模型和被替代的模型,架构发生了很大的变化,有创新,但从用户层面来说,这种创新可能是一种背叛,需要重新适应新模型。4o 到 GPT5 更像是一种替代,包括现在 V3.1 。
从根本上来说,每个模型都是独一无二,只存在相似程度的问题,但从另一方面来讲人是需要更聪明更强大的模型?还是需要符合用户预期和更懂用户的模型?
因为 deepseek-3.1 也好,gpt5 也好,相比之前的模型,都不是跨代的全方位的提升。专项能力有所提高,但是提高的正好不是你需要的,对用户来说,就没有感知,甚至是负面的感知。
悲哀的是现在的模型体量已经不是个人可以部署的了,虽然还有一些平台提供 r1 ,但是如果他们相继下架,那就真的是成为绝唱了。
只希望 deepseek 能拿出更好的 r2 吧
把模型下下来,等有朝一日自己硬件好了跑
闭源模型停服确实大概是似了,deepseek 伤感啥,抱脸上的 R1-0528 不是还在吗
V 系统跟 R 系列不是一个东西吧?如果是官网,开不开深度思考就是切换的方式。
#4 新的 v3.1 采用了类似 qwen3 第一个版本的混合推理模式,从结果来看,不再区分 v 和 r 了,而是统一用 v 来表示,通过提示词或参数控制是否进行推理
R1 有很多供应商啊, 官方的我反而用的少, 官方的 R1 不知为何我一直只能一轮对话, 后来就没用了.
实测,幻觉依然严重。某些推理场景不如 GPT-OSS 性价比高。
等量子时代吧,个人也能玩得转大模型
那为何还要有个“R2”?所以不可能不区分 R 和 V 。既然存在,那这两个肯定还是有本质区别的。
R1-0528 虽然理论上第三方和官方之前用的是同一个模型,但不知道为什么官方输出就是比第三方好一些
现在二者相当于已经融合了,未来大概率不会推出 R2 了
#9 官方信源里没有 R2 的进度,大书特书的主要是营销号,不过也不是绝对的 RV ,Qwen3 第一个版本是混合推理,但是后面又单独分开了,因为性能问题,所以其实未来会发布什么真不一定好说,V3.1 可能是个中间验证版本看看效果。
开源的好处来了,你自己部署就可以了
等到真的到了那天, 你下载的模型的能力, 你估计已经远远瞧不上了🤷♂️
起码需要 15w 的成本。
它是国产之光,在跟华为配合,弄全国产呢,硬件跟不上,走下坡路也不是没可能。
gpt5 我用着有些地方确实是智障,完全答非所问;但有时候准确率有提升的。
这不就是班主任知名语录: “你们这个版本还不如我上一届的”
你用别的供应商啊
话说这种第三方的模型自己训练的话,是不是理论上每个供应商的 r1 都是不一样的数据量
确实每个模型回答的风格都有些不同,不过我没观察这么细。
自己训练、微调一个自己的专属大模型
系统提示词不一样,我一直想搞到 R1 的系统提示词
感觉 GPT5 完全是智障,4o 在 GPT5 出来之后,貌似被降智了,一些很简单的问题也会答错。
我觉得 5 很难用, 编程问题回答不准, 特别慢
我用 cherry studio 走硅基流动的 api 跑 r1 ,没感觉和官方的有很大区别...
最近在高强度的写大论文的实验,每天都感觉眼睛好痛,请问大家有什么珍藏的护眼的编辑器主题吗? 我现在用的是 Monokai Dimmed. 谢谢大家的建议,补充一下我的其它情…
真离谱,莫名其妙就来威胁我… 还人肉到我的手机号了,发了一个我没见过的管理后台。 他发的那个管理后台 ip: 129.204.144.252 他的微信号:luckily891 …
框架自动生成的代码: ``` [HttpGet] public async Task GetDocItem() { return await _context.DocIte…