请问一下大伙儿, 现在“最快的” DeepSeek API 是哪家?
请问一下大伙儿, 现在“最快的” DeepSeek API 是哪家?
只讨论满血版 671B, 阉割版不在讨论范围内.
需要稳定的, 官网 API 已经连续 9 天 Major/Partial Outage 了.
硅基流动就别说了, 慢的受不了.🤦
together 的快,但是贵,输入输出都是 7 刀/m
fireworks.ai/ 现在用的是这家,速度还可以。groq 上有个 deepseek r1 蒸馏的 llama3 70b ,速度暴快。
谢谢, together 速度确实比硅基快多了. (钱包已捐 hh)
感谢, 这就去试试.
groq 上那个确实超快(纯粹的追求速度😂), 可惜蒸馏的 70B 效果比完整版还是差了一些.
字节火山有满血版的,送 500,000 tokens ,兼容 OpenAI SDK ,响应快,但是有时候会抽风变成非推理模型
直接用官方付费的吧 不贵 百万才 14
打不开 API 平台, 一直处于不可用的状态
我的 api 还能调通
我用的 azure 部署的 r1 ,速度挺快的,就是在美区
官方 api 在用着, 但是抽风时段太长了, 经常干活的时候用不了😂(被迫寻找替代
黄老板的免费的 5000 速度还行
我在用这个 ppinfra.com ,在国内几个平台中算比较稳定的了。
groq 上那个 70B 不好用吗? DS 原版的 R1 是什么尺寸的模型呀?
完整版 671B ,差了将近十倍参数。
请问是平台 api 便宜还是自己在云平台部署划算? 比如楼上的推荐的平台:
大语言模型名称 上下文 Input Output
deepseek/deepseek-r1 64000 ¥ 4 /百万 tokens ¥ 16 /百万 tokens
哦,那目前国内其他平台提供的也是完整版的 R1 吗? 好像没看到他们提及到该参数.
api 便宜又方便
这要看平台的描述以及信用了. 目前用的是 Azure 的 API, 国内好像可以直接访问, token 生成速度很快.
together 的 api 有点奇怪, 一些问题的回答明显和 deepseek 官方以及 azure api 的不同, 甚至答错. 也许是用了过于激进的缓存技术? 已弃用.
请教下 op ,我理解 deepseek 不是应该是只有 deepseek app 官网才可以使用么,就算用了 deepseek api ,那也是套一个壳,本质底层还是 deepseek 的服务器。
像楼上所说的 together firework 是 deepseek 是什么关系?难道是部署了 deepseek 的一些开源模型,然后使用 together 的 api 请求的是 together 的底层服务器,但是 together 的服务器部署的是 deepseek 开源的模型么?
你使用的是 deepseek 模型比如 R1 ,模型部署后通过 api 接口调用,官网只是给用户提供了一个 web 界面。
由于模型开源,其他商家如果部署后,同样可以提供 api 服务,选择相应模型即可。
有没有速度比较快的 deepseek v3 的 API 😂
试了一下效果不错,感谢
感谢,由于 R1/V3 模型开源,所以 together 、fireworks 这种才能提供 deepseek 的模型,如果不开源也就是提供不了了,是这么意思吧
那么我如果有一个很强的机器,我也是可以部署复现 R1 这种模型的对吧
女程序员是程序员里美丽的风景线,我希望这些女程序员的经历能让我们在这个“重男轻女”的社会中可以给女程员有更多平等的机会和条件,以及相应的尊重。因为,她们其中不乏优秀的程序员,而…
目前我用的是正版 unraid 已经正常运行几个月,没重启过 现在想换 PVE 有几个问题 ·换到 PVE NAS 系统的选择 ·换到 PVE 硬盘都直通给 nas 吗? ·换…
目前使用 R730XD 安装了 esxi8.0 虚拟了两台机器,但是由于功耗高噪音大想拆分成两个小的机器。 这里还有一个坑就是我用 730mini 阵列卡组的 raid0 和 …
合速度