我看了下 cursor 后台调用,很多近 200 万 tokens 的请求,有点烧不起:P
要是能本地部署 claude 就好了。

本地部署一台聪明的,100 万起跳

cc 或者 GitHub copilot 吧

美好愿望罢了。
确实强,拖了好多年的项目,嗖嗖嗖就搞定了。
慢慢发展,生成慢点儿也行。

cc 这个额度,也是快速用完。
主要是会话不能场景缓存,已有项目初始化沟通每次都要消耗大量 token 。

copilot 也有 agent 模式吗?用了多年 tab ,感觉没啥大用。

#4 有,copilot 现在一次会话算一条额度,更耐用一点

#5 但是 copilot 的 tab 贼难用

用一下亚马逊最新出的 kiro

在薅了在薅了

copilot 最近已经有 agent 模式了

我今天也用完了,想找个编辑器能接 gemini 的,内置普通 tab 就行。
只有 trae 能接入,但用的效果不如 cursor ,挺奇怪。

18 个月后本地小模型就有现在 claude 的水平了,现在 7B ,8B 模型相当于 24 年初最顶尖的 gpt4o 的水平

cc 现在也降额。200 的 max 每 5 小时的量起码比之前少了一半

希望大家都能做显卡的时代来的再快一点。
世界欣欣向荣,可我快挂了啊[捂脸]

我的 pro 账号基本都没怎么用,上个 v2er 上个月租完这个月不续租了,继续按月租赁,base64: dGfvvJpjb2Rpbmdmb3JmcmVlZG9t

玩了两天 agent 模式,消耗了 6411 万 claude-4-sonnet-thinking tokens
现在提示我照这个频率过两天就达到限额了,但还没超,哈哈哈

cc 照道理可以调出会话历史吧,看看命令行,这不是技术难点,它没道理不做这功能

1 、最开始用 chatgpt 的时候,所谓“会话”是每次把迄今聊天记录整个丢给 AI——考虑模型对外提供推理服务,不应被用户访问“训练”,不应有记忆。
2 、现在可能有好转即出现“短期记忆”,但保留“记忆”需要成本,不能长久保存。首次读项目需要百万 token ,每次记忆消失,都需要这么多 token 。
3 、类似推理可以用 cursor 请求记录引证。

不是“会话历史”功能这么简单。

augment code

aws 的 kiro 刚出来,试试看?

我用了一个月的 Cursor ultra 。 刚开始全是用的 Opus thinking, 10 天不到就 CD 了。政策不停地改,几天后只能用 Sonnet. 换了 CC Max 200 美金的额度, 全部 Opus ,会自动提醒, 没有 CD 焦虑。 爽 yy.

我建议如果有项目要冲,高强度可以上 100 美金的 CC 。 我认为还是且用且珍惜,Cursor 只用了大半个月从神坛迭下来,最后还是败在 token cost 上。CC 估计也会跟着涨。