套用政治书上的一句话,当前阶段的主要矛盾是 AI 指数级增长的知识和工具活学活用的能力和人们线性增长的学习和理解力之间的矛盾。
我让 claude 4 sonnet 给我搞一个评估用户数学各个子领域能力的小模块,三下五除二论文和方法论引出来了,Python 代码也写出来了,可视化诊断效果也跑出来了,看得一脸懵逼,现在开始慢慢一点点消化代码和论文里面的算法。感觉以后这个现象可能会越来越普遍和明显。。。

以后你就不看了。

错误的,你对他不信任才会需要代码审查

review 下, 是基本操作

还是源于不信任

可是我要基于它的代码做我想做的事情。不 review 怕带沟里去。。。

有没有可能群里有人已经被 ai 干掉了?
类似施瓦辛格电影《魔鬼复制人》的情节,只是自己不知道而已。

幻觉问题没解决,肯定没法 100%信,代码能跑不代表方法论真的 work

必须有的,比如航空公司客服—— hesudu.com/t/1140202#reply0

现阶段不进行 review ,直接用风险很高啊。

小东西无伤大雅,在你电脑上跑,顶多 rm -rf /

上生产环境的东西,你不 review ,出问题你要担责,“AI 是无辜的”

幻觉这事儿吧,人类搞的魔幻还少吗🐶

#2 手下的人做事出错你还可以甩锅,你用 AI 除了错锅只能是你背

不用怕,你胆子会越来越大的。

现在 ai 肯定还不行,还需要 review ,未来 ai 可能就会发展到可以自我审查的地步,写出来的东西对人来说都是黑盒,不需要人通过代码来维护迭代

linuxdo 也是你?

1.0 是用 tab..
2.0 是用 agent 自己 review
3.0 是不 review 直接用

刚刚就发现有个雷达图画错了,不敢不 review 啊

佬友好

也许那一天会到来,反正不是现在,没有明显的逻辑和现实物理约束的反馈来自动纠错。比如这次给我的程序画出来的雷达图,只有一个维度有值,一看就不对,雷达图应该每个维度都有值的,但是 claude 就自我发现不了,需要提醒才纠正。

只是大部分人而已,只要能拥有强大的算力什么问题都迎刃而解,就像你拥有一支铁骑一样。

一开始提问的回答往往靠谱,但是随着项目规模的不断增大,问题越来越多,AI 偶尔的回答可以说是无脑,甚至改错本来对的代码逻辑。

同遇到过这个情况,缺乏自我纠偏机制,或者说缺乏三维物理世界、业务流程逻辑、图像直观上的反馈。

替代低级脑力劳动还是还毫无压力的