实测smnet 和 siliconflow的 deepseek chat 延迟

把api接入沉浸式翻译,实测发现 deepseek的翻译能力很不错,比kimi强多了,关键是便宜。为了避免给服务器压力,我都没敢开自动翻译,而是手动一段一段的翻译。在翻译下面这篇文档的时候:


我查看后台日志:

发现5分钟内所有请求的平均延迟:

  1. deepseek-chat@deepseek 官方直连平均延迟 1.4s
  2. deepseek-chat@siliconflow 平均延迟 0.3s
  3. deepseek-chat@smnet 平均延迟 15s

折腾半天终于弄明白是因为smnet这个模型stream参数不起作用,因此统计的都是完整输出后的时间,不能算作首个token延迟。

然后经大佬指导,提示其它几个模型支持stream,我又试了下gpt-4o@smnet(之前一直报错没跑通,刚发现必须设置stream=true就能跑了),测试结果如下:


相比付费的openrouter 有个渠道11s延迟,gpt-4o@smnet<5s 延迟已经很不错了,关键还免费! 应该支持下公益爱心

2 个赞

人工智能搞七捻三

siliconflow融资了几百万美元,请问你给 @SMNET 捐了多少钱?

deepseek操作了,逆向延迟很高

2 个赞

image

我看了后台,短文本也就6s左右。逆向是这样的,而且本来就并发低,同一时间十几个人都在调用,有延迟是必然的,免费的东西别这么多要求,这么多要求就去用官方的,不必阴阳怪气我

1 个赞

image

其他高并发模型又不用,逮着个低并发的用

而且你用的非流,哪来的首Token :tieba_008:

1 个赞

大佬,opus出现胡言乱语,乱码情况是咋回事

私信提供截屏

1 个赞

抱歉抱歉,只是客观记录下技术指标,不带感情色彩…大佬能够逆向这么多模型并且给小白们送福利很厉害了,为ai普及做出了贡献。

关于首个token:我是把所有请求统一转换为流式了,因此计算的都是第一个token返回延迟

可能因为当时用到的人刚好比较多吧…

没懂,如果smnet日志显示你是调用的非流,那就说明你是传的非流参数呀,什么叫统一转换为流式

要比也应该和oaipro之类的比吧

一个是个人的无私贡献,一个是公司,没什么好比的吧。你这标题起的。。。。

1 个赞

我想了半天,都没反应过来smnet是什么公司。乐 :laughing:

1 个赞

你转换成流式有什么用?上游是非流,发完了才有你说的第一个token的概念

1 个赞

除非上游的stream接口是假的? 逆向也是流式的啊


你这话说的好过分,sm也不图你啥啊

1 个赞

终于看明白了,也就是说,OpenAI api 开放接口定义中的,stream定义其实没起作用啊?

免费还要什么自行车,能用就行,忍不了换下一个,真没有必要这样

搞笑哦兄弟,神墨收你钱了?

回复错人了