今天闲来无事,打开我的PC本地Docker搭建的OpenWebUI,开始与Ollama模型进行对话。
突然有个想法,能不能利用我搭建的环境在手机上运行,立刻动手实践。
我先ipconfig/all查看了PC端的IP地址,然后在手机浏览器上ip地址+端口号,居然顺利打开了
试着输入信息进行对话,Qwen2.5 7B的模型完全没有卡顿,运行流畅
是不是这也算解锁了一种运行Ollama的新方法
今天闲来无事,打开我的PC本地Docker搭建的OpenWebUI,开始与Ollama模型进行对话。
突然有个想法,能不能利用我搭建的环境在手机上运行,立刻动手实践。
我先ipconfig/all查看了PC端的IP地址,然后在手机浏览器上ip地址+端口号,居然顺利打开了
试着输入信息进行对话,Qwen2.5 7B的模型完全没有卡顿,运行流畅
是不是这也算解锁了一种运行Ollama的新方法
佬友好厉害。
下一步就是ZeroTier组网
我还以为是在手机上跑openwebui前端和ollama后端呢
这不就是局域网访问吗,再搞个域名反带一下,实现互联网访问
貌似手机浏览器一直能访问openwebui
话说 lz 为什么会一开始认为不行呢?
我相信它可以运行OpenWebUI,但是我没想到它可以调用Ollama模型
太强了!
请问为何会认为不可以?通过 api 应该都可以吧
理论上命令行用 curl 也行呀
佬友一定没有用过这种Ollama的模式,这和API没有一毛钱关系,更与curl不沾边
可以的啊。open webui做api server, curl request格式和openai的一样。
这就用openwebui代调用本地模型罢了
哈哈,我也是被标题骗进来的,手机上跑Open WebUI前端和Ollama后端,电脑访问才更有意思
++++++1 同感
看来有很多人跟我一样认为是手机上跑 Ollama
直接一手FRP穿透出去在公网用
免费的frp服务
https://jk.quickso.cn/status/frp
windows的frp客户端
配合一个白嫖的域名
https://nic.us.kg/
此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。