目前:
- 在 Azure AI 搭了个 DeepSeek R1
- 调用了火山方舟的 DeepSeek R1 API
- 调用了 hugging face API 的蒸馏版 deepseek 32b r1
- 使用了 groq 的蒸馏版 deepseek 70b r1
用了日本的服务器搭建了个uni-api 和 neatchat (nextchat),个人观感响应速度依次:
- Azure AI
- Groq
- hugging face
- 火山方舟
想收集下佬们其他平台的API响应速度如何
目前:
用了日本的服务器搭建了个uni-api 和 neatchat (nextchat),个人观感响应速度依次:
想收集下佬们其他平台的API响应速度如何
硅基流动 测试r1模型 卡的不行,从昨天开始
硅基的估计是千军万马过独木桥,您有试试官方的API 吗
Nebius输出速度正常,但是经常卡顿,不知道是否为个别现象。
cerebras的速度最快.
我用的硅基。长文本,有时候我去大号回来,我拉完了它不一定能拉完。。。
靠,这个好形象
azure原来不是很慢么,加速了?
据说火山最快
继续等啊
昨天晚上火山方舟能到 80多 tokens/s
至少是全量的
继续等等
官方也不行
2月7日更新:Azure AI的 R1超时严重
对的,我还以为我的问题