如何提高 open webui 的打开速度?

open webui 打开有点慢,如何提高速度?

目前我的配置:

  • 服务器是甲骨文东京2c12g arm
  • 用虚拟环境 pip 安装,然后宝塔 nginx 搭建网站
  • 用 cloudflare 套了自己的域名
  • 目前打开需要4-5秒

如何做到 ChatGPT 网页那种打开速度(1秒左右)?

谢谢!

7 Likes

提高不了,openwebui 代码写的太臃肿了。我都无数次想要帮作者优化 openwebui 了。
想要快先用其他的 chat ui 吧

5 Likes

的确,还有些莫名其妙的 bug,有啥其他轻量快速的替代品推荐吗?谢谢

同问,openwebui确实慢

1 Like

同问,有没有轻量一点的openwebui代替品,可以丰富的支持第三方api的这种。

1 Like

有太多了,但是大部分都有点简陋或者也很卡,我也还在评测中,等我都试一试再来推荐

推荐你现在还是用客户端,比如开源的 deepchat 我最近也在用,好看也不卡,功能也都支持

网页端和浏览器插件的可以用站内大佬搞的 [开源] Cerebr: 极简主义免费网页 AI 对话侧边栏插件,可自部署为网页,mac 桌面应用

1 Like

很难,它和lobechat一样启动慢,chat box和nextchat 很快

前端的话可以分开加载…
带宽不够是痛

国内服务器,裸连,1s

不要套cf,否则国内很慢

不要套cf,nginx缓存下静态资源

国内厂商的海外服务器

  • 开静态资源缓存
  • 启用br压缩js、json、html资源
  • 可以考虑把模型列表的图片换成url,默认是base64,我没操作过,站内有佬友的教程,可以搜搜
  • 加钱,搞台配置和线路都很棒的机器

OpenWebUI 部署记录(HuggingFace + Cloudflare +Deno)
可以参考下这个

1 Like

按照站里的教程优化
nginx缓存
我的打开在1.5s左右

我猜是你拉取的模型太多了,每次启动会去从你定义的API地址拉模型,你关掉测试下

其实也不会快很多 :tieba_087: 感觉owu本身就有点慢

1 Like

确实没快多少,就是爱折腾 :tieba_087:

确实,可惜 NextChat 不支持添加多个不同提供商的 API

目前还是OpenWebUI 最好用了,想更快只能期待他的客户端了吧(很久没更新了,上次commit 还是在 一月份 :tieba_087: