解锁PC运行OpenWebUI+Ollama手机使用模式

今天闲来无事,打开我的PC本地Docker搭建的OpenWebUI,开始与Ollama模型进行对话。

突然有个想法,能不能利用我搭建的环境在手机上运行,立刻动手实践。

我先ipconfig/all查看了PC端的IP地址,然后在手机浏览器上ip地址+端口号,居然顺利打开了

试着输入信息进行对话,Qwen2.5 7B的模型完全没有卡顿,运行流畅

是不是这也算解锁了一种运行Ollama的新方法

3 Likes

佬友好厉害。

下一步就是ZeroTier组网

1 Like

我还以为是在手机上跑openwebui前端和ollama后端呢

1 Like

这不就是局域网访问吗,再搞个域名反带一下,实现互联网访问

1 Like

貌似手机浏览器一直能访问openwebui

话说 lz 为什么会一开始认为不行呢?

我相信它可以运行OpenWebUI,但是我没想到它可以调用Ollama模型

太强了! :tieba_087:

请问为何会认为不可以?通过 api 应该都可以吧
理论上命令行用 curl 也行呀

佬友一定没有用过这种Ollama的模式,这和API没有一毛钱关系,更与curl不沾边

可以的啊。open webui做api server, curl request格式和openai的一样。

这就用openwebui代调用本地模型罢了

哈哈,我也是被标题骗进来的,手机上跑Open WebUI前端和Ollama后端,电脑访问才更有意思

1 Like

++++++1 同感

tieba_001看来有很多人跟我一样认为是手机上跑 Ollama

直接一手FRP穿透出去在公网用
免费的frp服务
https://jk.quickso.cn/status/frp
windows的frp客户端

配合一个白嫖的域名
https://nic.us.kg/

此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。