求助各位大佬,为啥感觉硅机流动api不如deepseek网页版好用呀

如题,我是用cherry调用的硅基流动的api,同样的问题输出内容的质量感觉不如网页版,而且思考时间也长了将近8倍 :sweat_smile:

34 个赞

确实,卡的要死

13 个赞

现在 API 只推 Azure 和 字节

8 个赞

不只是卡,输出到内容质量感觉也不如网页版的,是不是官网有些内置的提示词呢

2 个赞

很卡,遇到难的问题容易断输出,还不如自己薅个azure学生用azure

1 个赞

你的感觉没错,我也是这样的。用了360满血版,和百度,腾讯都一样。。

回答的就是没有deepseek官网的好,而且这些api都有个问题思考来又思考回去,反复思考。

2 个赞

不知道哪里出现的问题

1 个赞

可能和基于昇腾的推理框架与基于CUDA的推理框架的内部实现有关吧,毕竟R1是用Nvidia那套训练的,在Nvidia卡上的效果是原汁原味的

1 个赞

免费的用的太多了速度慢
但是质量没看出明显区别

1 个赞

我在公众号问客服直接让我用pro版

1 个赞

8K截断,显卡数量太少

1 个赞

确实不如啊

1 个赞

比较可能是因为思考长度、输出长度导致的,官网的web端应该是有自己的system prompt,反思的次数明显比api多,之前有佬在提示词里写输出长度大于1000字,模型的回复也有所改善。

1 个赞

确实有这个可能,之前没考虑过这方面

1 个赞

硅基那个能用?卡的要死

1 个赞

我试过官网网页版比官网的api都要好用些,有些问题网页版每次都能答对,官网api大部分答错,少部分答对,现在要用deepseek-r1只用网页版。硅基从来没有答对过,而且还卡。

1 个赞

硅基那个正确率也不高

1 个赞

截断警告…虽然pro输出快,但是截断! G

不可能给硅基掏钱的,deepseek没铺开之前还能用,最近两周请求接口越来越慢,还影响到我调用其它模型了

主要是掏钱™也截断,我™

1 个赞