前提:
gemini 在逐步兼容 OpenAI 格式:
部署 api 代理
注册 google 账号,申请 gemini api key
部署/使用 openwebui
配置
openwebui-管理员面板-设置-外部链接-新增OpenAI API 连接
完成
经过测试,/v1beta 可以,/v1 不行,并且无法自动获取模型,所以要手动添加模型ID,估计以后兼容完成后就都是 /v1了,并且可以自动获取模型了
gemini 在逐步兼容 OpenAI 格式:
部署/使用 openwebui
openwebui-管理员面板-设置-外部链接-新增OpenAI API 连接
经过测试,/v1beta 可以,/v1 不行,并且无法自动获取模型,所以要手动添加模型ID,估计以后兼容完成后就都是 /v1了,并且可以自动获取模型了
感谢佬友分享~~
这个网址填xxx吗,能不能分享一下具体的网址
这个还是看上面的帖子自己部署吧
感谢你的教程
感谢佬,搞定了,顺便想问一下这个api的免费额度有多少,咋查看,怕用超了
大佬为什么我的一直报错,服务器IP是美国的没问题的,用其它端就能用gemini
糟糕!连接到 gemini-2.0-flash-exp时出现问题。
network error
新建话题试试,如果是在原来的话题,切换到这个模型,重新生成就会出现这样
或者试多几次重新生成
还是搭个new api方便,把密钥填进去就能用了
有道理,我试试
破案了,IP的问题,我弄了个镜像就能正常回复了。
但是太奇怪了,同样这个IP其它服务端都能用geminiAPI正常用,只有openwebui不可以。。。
太奇怪了,应该是我的openwebui有BUG
用其它端这个IP都能用
用这个函数方法也可以直接用,也是同样的IP。
就在openwebui 直接填提示没网络…
现在先用函数的方式添加了。
应该是没有获取到模型,填openai方式,openweb ui会自己获取模型
确定是正确的设置,只能等openwebui更新了
那就用我帖子里面大佬的原始方法,他的全部模型都可以显示出来
哈,我现在就是用的这个,我就是看的大佬你的贴子弄的。
我的代码只能显示Gemini-2-flash,其他模型不能联网的我没要,佬的原始方法里面的代码是获取了全部的模型的
不想搭可以用现成的
https://api-proxy.me
那感觉我这个openwebui真有BUG
我能用大佬你的代码,所有GEMINI模型都出来了