如果采用one-api或new-api聚合,接入open webui就自动读出所有不同渠道的ai。这是我最喜欢open webui的地方。nextchat似乎需要逐一手工设置自定义ai,实在太麻烦了。lobe好像可以通过接口读取。不知道大家有什么好的办法解决这个问题。毕竟nextchat因为轻量,有时候还是想用。
你可以给NEXT作者留言 督促他 去GITHUB
设置好就别改了呀,有漏的再加
我感觉是设计理念问题。提一个issue没用。nextchat界面显示的ai是随版本预置,不是按照你后台配置或者前台自定义接口获取的。这样导致你看到的各种ai实际是否存在,路由指向哪里全部都需要逐一配置,对于大量渠道聚合的场景非常繁琐。lobe虽然有获取ai的功能,但经常不能正常获取。这点open webui强大太多,方便太多了。
或者可以骚扰下LOBE作者 让他优化下
萝卜白菜, 你自己选择你喜欢的就行了
我已经改用lobe 了,这种只设置一次就可以的事,根本不是什么大问题。 我不用 openwebui 是因为它在1个绘画里只能上传1个文档,并且iphone 手机访问会白屏,还有它的助手有点看的不是很懂, 之前lobe 上传文件无法向量化(new api 模式)不过我试了现在可以了,每个人需求不同,目前推荐使用lobe
LobeChat 获取可用模型的原理是请求 /v1/assistants ,Open WebUI 应该是同样的原理。
另外,NextChat 可以在后台配置前端显示什么模型:
CUSTOM_MODELS
(可选)示例:
+qwen-7b-chat,+glm-6b,-gpt-3.5-turbo,gpt-4-1106-preview=gpt-4-turbo
表示增加qwen-7b-chat
和glm-6b
到模型列表,而从列表中删除gpt-3.5-turbo
,并将gpt-4-1106-preview
模型名字展示为gpt-4-turbo
。
如果你想先禁用所有模型,再启用指定模型,可以使用-all,+gpt-3.5-turbo
,则表示仅启用gpt-3.5-turbo
用来控制模型列表,使用
+
增加一个模型,使用-
来隐藏一个模型,使用模型名=展示名
来自定义模型的展示名,用英文逗号隔开。在Azure的模式下,支持使用
modelName@azure=deploymentName
的方式配置模型名称和部署名称(deploy-name)示例:
+gpt-3.5-turbo@azure=gpt35
这个配置会在模型列表显示一个gpt35(Azure)
的选项。
如果你只能使用Azure模式,那么设置-all,+gpt-3.5-turbo@azure=gpt35
则可以让对话的默认使用gpt35(Azure)
在ByteDance的模式下,支持使用
modelName@bytedance=deploymentName
的方式配置模型名称和部署名称(deploy-name)示例:
+Doubao-lite-4k@bytedance=ep-xxxxx-xxx
这个配置会在模型列表显示一个Doubao-lite-4k(ByteDance)
的选项
我加上这个功能了,体验地址
修改参考:
ChatGPT-Next-Web 我记得明明合过一个获取模型的pr, 就是不知道哪去了
LobeChat 获取可用模型的原理是请求 /v1/assistants ,Open WebUI 应该是同样的原理。
说错了,请求的是 /v1/models
,这个接口是 OpenAI 的标准接口,目前基本上主流的 Provider 都支持了的
建议给出具体的不能正常获取的场景,/v1/models
这个接口也是有 key 鉴权的,你 key 填的不对就获取不到了
nextchat就是要自己渠道很稳定一劳永逸,象我经常白嫖坛里的福利资源,用起来好烦的。。
大佬有docker吗,想直接用。
有些自定义的小功能,没有完全兼容 nextchat 最新功能(sd 和插件),凭需自取哈
image: justma/chatgpt-next-chat:latest
找到了support one-click fetch available models in OpenAI Channel by code-october · Pull Request #4815 · ChatGPTNextWeb/ChatGPT-Next-Web · GitHub
不过因为规范问题没有合到代码里面去
可惜了。非常需要的基本功能。
谢谢 大佬。
提一个 issue,我觉得这个功能可以做