如题,我是用cherry调用的硅基流动的api,同样的问题输出内容的质量感觉不如网页版,而且思考时间也长了将近8倍
34 个赞
确实,卡的要死
13 个赞
现在 API 只推 Azure 和 字节
8 个赞
不只是卡,输出到内容质量感觉也不如网页版的,是不是官网有些内置的提示词呢
2 个赞
很卡,遇到难的问题容易断输出,还不如自己薅个azure学生用azure
1 个赞
你的感觉没错,我也是这样的。用了360满血版,和百度,腾讯都一样。。
回答的就是没有deepseek官网的好,而且这些api都有个问题思考来又思考回去,反复思考。
2 个赞
不知道哪里出现的问题
1 个赞
可能和基于昇腾的推理框架与基于CUDA的推理框架的内部实现有关吧,毕竟R1是用Nvidia那套训练的,在Nvidia卡上的效果是原汁原味的
1 个赞
免费的用的太多了速度慢
但是质量没看出明显区别
1 个赞
我在公众号问客服直接让我用pro版
1 个赞
8K截断,显卡数量太少
1 个赞
确实不如啊
1 个赞
比较可能是因为思考长度、输出长度导致的,官网的web端应该是有自己的system prompt,反思的次数明显比api多,之前有佬在提示词里写输出长度大于1000字,模型的回复也有所改善。
1 个赞
确实有这个可能,之前没考虑过这方面
1 个赞
硅基那个能用?卡的要死
1 个赞
我试过官网网页版比官网的api都要好用些,有些问题网页版每次都能答对,官网api大部分答错,少部分答对,现在要用deepseek-r1只用网页版。硅基从来没有答对过,而且还卡。
1 个赞
硅基那个正确率也不高
1 个赞
截断警告…虽然pro输出快,但是截断! G
不可能给硅基掏钱的,deepseek没铺开之前还能用,最近两周请求接口越来越慢,还影响到我调用其它模型了
主要是掏钱™也截断,我™
1 个赞