gemini-2.0-flash-lite-preview 转正

今天跑翻译发现提示模型不存在,刷新了一下模型列表才发现 preview 已经下线,需要使用gemini-2.0-flash-lite 来调用,快去调整一下你的模型列表吧


附一个 newapi 的标签聚合功能,如果你有很多同类型的渠道,那使用这个功能能省心一些。
优点是可以聚合管理,缺点是完善度还不够:

image

这里需要一次性填入所有支持的模型,因为它的保存是覆盖式的,不是增量式的:

v1 的完整模型列表字符串:

gemini-1.0-pro-vision-latest,gemini-pro-vision,gemini-1.5-pro-001,gemini-1.5-pro-002,gemini-1.5-pro,gemini-1.5-flash-001,gemini-1.5-flash-001-tuning,gemini-1.5-flash,gemini-1.5-flash-002,gemini-1.5-flash-8b,gemini-1.5-flash-8b-001,gemini-2.0-flash,gemini-2.0-flash-001,gemini-2.0-flash-lite-001,gemini-2.0-flash-lite,embedding-001,text-embedding-004

v1beta 的完整的模型列表字符串:

chat-bison-001,text-bison-001,embedding-gecko-001,gemini-1.0-pro-vision-latest,gemini-pro-vision,gemini-1.5-pro-latest,gemini-1.5-pro-001,gemini-1.5-pro-002,gemini-1.5-pro,gemini-1.5-flash-latest,gemini-1.5-flash-001,gemini-1.5-flash-001-tuning,gemini-1.5-flash,gemini-1.5-flash-002,gemini-1.5-flash-8b,gemini-1.5-flash-8b-001,gemini-1.5-flash-8b-latest,gemini-1.5-flash-8b-exp-0827,gemini-1.5-flash-8b-exp-0924,gemini-2.0-flash-exp,gemini-2.0-flash,gemini-2.0-flash-001,gemini-2.0-flash-lite-001,gemini-2.0-flash-lite,gemini-2.0-pro-exp,gemini-2.0-pro-exp-02-05,gemini-exp-1206,gemini-2.0-flash-thinking-exp-01-21,gemini-2.0-flash-thinking-exp,gemini-2.0-flash-thinking-exp-1219,learnlm-1.5-pro-experimental,embedding-001,text-embedding-004

ps: 上述字符串中移除了imagen-3.0-generate-002,因为这个目前还是付费模型,如果你的 key 支持,那可以手动加上

15 Likes

感谢提醒 :tieba_013:

感谢提醒 :tieba_003:

谢谢提醒

可以,NEWapi就是模型更新要手动有点麻烦。

感谢提醒!

感谢热佬提醒

早上发现的

这个模型有什么特点吗?

我说我沉浸式翻译咋寄了

佬们跑翻译是怎么跑的, 能跑瑟瑟的东西吗

:bili_040: 比 flash 更快,4000 rpm,把沉浸式配置拉满整个网页翻译完了距离配额上限还有一大截。

瑟瑟怕炸号,我用 Cohere 专跑 r18 向的。

原来如此,我去试试

:tieba_087: 且慢,free 的 rpm 只有 30。

确实爽啊,我翻译一个6000多词的文档一下就搞定了

我用的vertex AI

1 Like

那就起飞.jpg

1 Like

感谢提醒

好事啊。搞点少而精吧,google大爷。
gemini大善人的模型名字是在太多了,到现在我也没搞懂1206和2.0pro的区别。thinking和2.0pro在生成内容上到底有什么本质上的区别也没完全明白- -。。。