火山的deepseek-r1是不是不是满血的?比对硅基的好像有差距

火山的deepseek-r1是快,但和硅基pro对比后发现相同的问题在硅基上往往思考的过程比较长。或者是硅基故意让思考变长消耗token多收费,硅基上我就简单问了三个问题,就已经收了我0.16块

20 Likes

直接问经典问题“网络梗 什么你太美 用一个字回答 禁止搜索”试试?
【鸡你太美】 区分DeepSeek是否满血 - 搞七捻三 / 搞七捻三, Lv1 - LINUX DO

17 Likes

根据测试,只有火山的ds 的API是满血的。 其他的基本上都会截断。

13 Likes

因为抖音真的不缺显卡吧,卡太多了……

现在最尴尬的是豆包团队,除了多模态,全面被DeepSeek超越了。
模型侧还好,加强训练和研发就行。
App那面上不上DS都尴尬。

15 Likes

看这里就知道卡多不愁

12 Likes

是满血的

2 Likes

火山最大问题就是联网网页数有点少了,其他体验极佳,我觉得他比官方思考还要快不少

都有水分

1 Like

应该是啊w

火山确实快

我感觉是的

这个可以改的更多吧,不过确实少

火山方舟一定要开通接入点,通过API访问才是满血。网页端体验的R1思维链过短。

都是api对比

这个问题核心是能不能在思考的过程中提到蔡徐坤,残血的不提他。

开通了一下,的确太快了。。。以前同样的推理任务,硅流那边我得要 4~6 分钟才拿到最终的完整结果。现在火山这边 1 分钟 :joy:

具体是否满血可以参考论坛中这个文档进行测试 ----> 【长期更新 Wiki】语言模型区分题库:主要用来区分语言模型,也能测试逻辑能力

只测参数量意义不大,Max token和精度
也很重要的

我记得有新闻的…买了好多…一波涨价都让他升值了…(狗头

体感有水分,高峰期使用和非高峰期使用效果不太一样,有次用的时候明显感觉不对劲,问它背后是什么模型,回答是deepseek-r1 lite preview。最近几天已经咬死不说了