我试过 snaily 大佬的,很好看但是很慢
然后又试过 gemini-proxy-panel 莫名其妙没有流式,速度稍微快一点,都是用chatwise客户端请求的,不可能出现差异
就想知道谭里的佬友是怎么做到如此之快的,我的服务器虽然距离gemini10ms,线路虽然一般是美国的,但是我也挂着代理请求了,用佬友的号池明显快得多
我试过 snaily 大佬的,很好看但是很慢
然后又试过 gemini-proxy-panel 莫名其妙没有流式,速度稍微快一点,都是用chatwise客户端请求的,不可能出现差异
就想知道谭里的佬友是怎么做到如此之快的,我的服务器虽然距离gemini10ms,线路虽然一般是美国的,但是我也挂着代理请求了,用佬友的号池明显快得多
用的snaliy佬的,速度很快啊,是不是你IP的问题
你服务器离gemini近,但是你离服务器远啊
佬友的这个公益号池 x666.me 这个站就非常非常快
试试我写的 uni-api:
neo api
刷到我自己的项目了,怕献丑就还没在论坛里发
之前流式确实存在一些bug,现在应该已经修复了
果真吗,大佬nb,那我更新下看看
测试了,速度很快,非常满意,也有流式了,希望可以增加flash的非思考和思考版本区分
首字延迟多少?
好像gemini2.5首字延迟本来就很严重。他是思考模型,但是又不输出思考过程。
看起来都挺快的。。。我连服务器,服务器连api,首字要20多s。
强推楼上大佬的uni-api
图里的我也是用的务器,20s 不奇怪啊,看问题难度思考长度也不一样 ,我不也有一个 18s,而且因为看不到思维链,无法根据总 token 控制变量算 tps
我主要说的是吐字速度,就是思考后输出的思考,就是换了这个项目感觉吐字速度明显快 50%,具体为什么我也没研究代码,不知道为什么
uni-api 是类似于 one-api,new-api 的定位似乎?也有建号池的功能?
可能python效率低?但应该也没有这么低吧
不一样,uni-api只是单纯用来组号池,负载均衡的
没有用户体系
请问接口地址怎么填,各种
https://x666.me/pg/chat/completions 带不带井号v1后缀都试过了
佬,你这个项目支持调用gemini的openai格式的端点吗 ,调用openai格式截断似乎没那么严重
cherrystudio的话,就填https://x666.me就好了