下载 huggingface 大模型有什么好方法吗
也用了 hf-mirror.com/
但这个基本下几 G 就限流了
直接 huggingface 下载也是比较慢的, 反正下 7,8G 以上文件基本
没完成就没速度了
大家有啥好方法吗, 现在模型太大了, 都是几十 G
限流的话断点续传就好了
modelscope.cn +断点续传
hf-mirror cli 断点续传
你都能上 v 站了, 翻墙还不利索?
代理+直接 wget
挂代理 + github.com/bodaay/HuggingFaceModelDownloader
可以用 cloudflare workers 跑一个反向代理,github 有现成的脚本
前提是你的网络和 cloudflare 的链接质量得靠谱,有些宽带不行
If you are running on a machine with high bandwidth, you can increase your download speed with hf_transfer, a Rust-based library developed to speed up file transfers with the Hub.
pip install "huggingface_hub[hf_transfer]"
HF_HUB_ENABLE_HF_TRANSFER=1 huggingface-cli download ...
有时候下载断流,我刷新一下 hf 的页面,速度就突然有了
上个优质科学网络 tg:wavevwe
这种大文件下一会儿就限流的, 除非不停换节点
代理呢。。。。
国外 vpn 都随便 1t 流量,敞开下啊
梯子问题,换一家。
#11 我用的 jms 从来不限流
国内有阿里的魔塔
modelscope.cn/
基本的 model 都有,支持全速下载
好像可以复制下载链接用迅雷下载
好像就 huggingface 的主域名被墙,反正用 lm studio 下模型直接跑超 ISP 给的带宽,梯子肯定没这速度
直接去 modelscope 下载。 一般都有人分流。
我浏览器下载比较慢,链接粘到 aria2 下载千兆满速,不知道为啥
可以开类似联通 9929 这样的,国外下载很快
比如: 购买的机器利用率太低,浪费了很多钱(本来能 10 块钱解决,偏偏花 100 )。 购买的机器类型不对,比如本来能用 ARM (重新编译一下镜像),偏偏选更贵的 X8…
谢谢各位大佬,如果有视频教程就更好了 docs.microsoft.com/zh-cn/dotnet/csharp/ 做 u3d?不是 u3d 不建议做.net 官方文…
佩服小米开发团队的技术水平,冲高端的数字型号版本出现这种基础的体验 bug ,并且持续几个月时间都没改好。 视频链接: youtu.be/a0vCJ6f7frA 老问题了,…
合速度