想自己本地跑大模型,学习大模型,做一些微调等操作,目前看到一款小主机在预算内, CPU AMD Ryzen Al Max+ 395,不知道这套配置是否适合用来学习大模型跑大模型,有没有懂的兄弟可以给点建议。
CPU:AMD Ryzen Al Max+ 395 处理器(16 核心 32 线程,最大睿频 5.1GHz ,三级缓存 64MB)
显卡:AMD Radeon 8060S Graphics 40CUs
系统盘:M.2 2280 PCle4.0 x4(最大 4TB)*1
存储盘:M.2 2280 PCle4.0 x4(最大 4TB)*1
内存:128GB(16GB*8) LPDDR5x 8000MT/s (最大可分配 96GB 给显存)
接口:AC1 + USB3.2(10Gbps)2 + SD4.0 卡槽1 + LAN 10Gbps(Intel E610)2 + USB-C(10Gbps 数据)1 + 3.5mm 音频插孔2 + DP2.1 8k 60Hz1 + HDMI2.1 8K 60Hz1 + USB4(40Gbps/DP1.4)*2
无线网络:WIFI7 MT7925; 蓝牙 5.4
这玩意一万块,拿来充 api 够你用到退坑还有剩
自己运行大模型的感觉不一样, 一是学技术, 二是硬件快到头了, 贬值慢, 用个几年把显卡之类榨干再出手, 也不亏. 三是开源模型越来越强了, 未来可期.
大模型本质就是老虎机, 你花钱调用 API(花钱买代币), 和本地 24 小时不间断调用摇骰子(免费无限代币), 长期来看还是有差距的.
这倒是,但是 api 的话好像只能使用吧,可以满足学习大模型吗自己实操那种,不是很懂
这不是玲珑星小主机的配置吗。
小主机散热和扩展性是个问题,不如自组台式机这个配置玩大模型了。
这款的内存带宽和推理性能大致跟 M4pro 差不多. 推理场景跑不了太大的稠密模型(虽然可以加载, 但是推理速度太慢). b 站有评测可以看下推理速度能否满足你的使用预期.
比较合适的场景是跑 moe 模型, 需要大内存, 但是计算量不高. 比如 qwen3-coder-30b-a3b 这种.
自组台式显卡成本比较高, 有点超预算
要不……先花点钱在云平台租点 GPU 算力资源自己玩玩?
不如买 mac mini ,m4 pro 性能不错
还不如直接 api
学习大模型还是上英伟达吧
本地还是得 nvidia 吧。。。。不然兼容性折腾死你。
不说别的 vllm 没有非 nvidia 的二进制版本,你得自己编译。。
省点功夫吧 连买什么卡都搞不清楚
该用 api 用 api,想要本地跑不要买这种电子垃圾,带宽太低了,一万块去看看 7532+8*64+3080 20G,能保证本地运行现行大部分 MOE 模型的 int4,微调个人基本上别想这茬
可以尝试一下
我再看看
最近才开始了解大模型这些知识
我看看
这配置比调用 api 体验更差,没有学习的价值,除非你要跑 Huihui-GLM-4.5-Air-abliterated 写黄文
按理说,你自组小主机应该比你买成品小主机要便宜一点的
好像自己组 NVIDIA 显卡主机比较适合学习用
主要买成品比较省事
amd 这一代虽然能跑了,但还是太慢,最后你还是得走上魔改老黄的邪路。或者再等等看下一代
貌似是的,下一代可能会好些
现在国内租用 gpu 的平台多的是...4090 这种也就两三块钱一小时,3080 这种更便宜。 入门绰绰有余了,500 块钱能够你从入门到放弃好几回了
你先明确学习的内容是什么。
首先排除训练,Llama 3.1 8B 训练使用 1024 张 H100 80G 训练了一个月也就那样;
然后就微调,显存小就跑个 gpt-oss-20b 和 Qwen3-30B-A3B 的规模, docs.unsloth.ai/basics/gpt-oss-how-to-run-and-fine-tune docs.unsloth.ai/basics/qwen3-how-to-run-and-fine-tune 大点的模型还不如去 www.together.ai/ 导入你的数据集点几下按钮就开始微调了。
然后是推理,推理吃的是带宽和显存,这个价格你直接在 apxml.com/zh/tools/vram-calculator 选你要跑的模型和设备来看模拟推理的速度心里就有数了,这个配置性价比最高的也就是跑 gpt-oss-120b 的 mxfp4 量化,其次是 GLM 4.5 Air 的 4bit 量化,速度也就那样,选择 M4 Max 看速度然后除以二就懂了。
再然后是 RAG ,说白了就是找出相关内容然后字符串拼接,你本地跑和调用 API 也没区别,看 llamaindex 代码就懂了,知识库都是围绕那三五十行代码做各种业务和 UI 的封装。
github.com/run-llama/llama_index/blob/81d4b871143ddd4a7cb90333a3d103fbb1f269c5/llama-index-core/llama_index/core/prompts/chat_prompts.py#L21
剩下的就是画色图、写黄文、声音转文本、文本转声音、声线克隆
自己组也很简单。并且现在电商很发达的,你什么配置的,找抖音本地大主播配一下,也很简单的。
我建议你别太相信小主机的散热了,另外现在主流大模型学习还是 nvidia 的显卡吧,amd 那玩意不太靠谱。
出了个编程题作为第一题,题目很简单就是一个列表找最大值: var list = List.of(5, 23, 6, 112, 44, 33, 31); // 找出 list 中…
数量级25(10^25)是 Uncle Bob 在 RailsConf 演讲的主题。如果你用一台 PDP 8( 1960年代的计算机)和 Mac PowerBook 做比较的话…
struct DV_COMMON_EXPORT product_config { int detect_delay_ms = 0; int reject_delay_m…