xstar
(xstar)
1
把api接入沉浸式翻译,实测发现 deepseek的翻译能力很不错,比kimi强多了,关键是便宜。为了避免给服务器压力,我都没敢开自动翻译,而是手动一段一段的翻译。在翻译下面这篇文档的时候:
我查看后台日志:
发现5分钟内所有请求的平均延迟:
- deepseek-chat@deepseek 官方直连平均延迟 1.4s
- deepseek-chat@siliconflow 平均延迟 0.3s
- deepseek-chat@smnet 平均延迟 15s
折腾半天终于弄明白是因为smnet这个模型stream参数不起作用,因此统计的都是完整输出后的时间,不能算作首个token延迟。
然后经大佬指导,提示其它几个模型支持stream,我又试了下gpt-4o@smnet(之前一直报错没跑通,刚发现必须设置stream=true就能跑了),测试结果如下:
相比付费的openrouter 有个渠道11s延迟,gpt-4o@smnet<5s 延迟已经很不错了,关键还免费! 应该支持下公益爱心
2 个赞
xstar
(xstar)
8
抱歉抱歉,只是客观记录下技术指标,不带感情色彩…大佬能够逆向这么多模型并且给小白们送福利很厉害了,为ai普及做出了贡献。
关于首个token:我是把所有请求统一转换为流式了,因此计算的都是第一个token返回延迟
没懂,如果smnet日志显示你是调用的非流,那就说明你是传的非流参数呀,什么叫统一转换为流式
camellia
(camellia)
12
一个是个人的无私贡献,一个是公司,没什么好比的吧。你这标题起的。。。。
1 个赞
你转换成流式有什么用?上游是非流,发完了才有你说的第一个token的概念
1 个赞
xstar
(xstar)
15
除非上游的stream接口是假的? 逆向也是流式的啊
xstar
(xstar)
17
终于看明白了,也就是说,OpenAI api 开放接口定义中的,stream定义其实没起作用啊?
免费还要什么自行车,能用就行,忍不了换下一个,真没有必要这样