对比下各个平台在国内使用 DeepSeek R1 的响应速度(2月7日上午:Azure AI的 R1暂不可用)

目前:

  • 在 Azure AI 搭了个 DeepSeek R1
  • 调用了火山方舟的 DeepSeek R1 API
  • 调用了 hugging face API 的蒸馏版 deepseek 32b r1
  • 使用了 groq 的蒸馏版 deepseek 70b r1

用了日本的服务器搭建了个uni-api 和 neatchat (nextchat),个人观感响应速度依次:

  1. Azure AI
  2. Groq
  3. hugging face
  4. 火山方舟

想收集下佬们其他平台的API响应速度如何

10 个赞

硅基流动 测试r1模型 卡的不行,从昨天开始

硅基的估计是千军万马过独木桥,您有试试官方的API 吗

Nebius输出速度正常,但是经常卡顿,不知道是否为个别现象。

1 个赞

cerebras的速度最快.

我用的硅基。长文本,有时候我去大号回来,我拉完了它不一定能拉完。。。

8 个赞

靠,这个好形象

azure原来不是很慢么,加速了?

据说火山最快

继续等啊

昨天晚上火山方舟能到 80多 tokens/s


现在只有十几了:joy:

@shanai @handsome 现在看来火山是最慢的 :expressionless:

至少是全量的

继续等等

官方也不行

2月7日更新:Azure AI的 R1超时严重

1 个赞

对的,我还以为我的问题 :tieba_087: