用本地Docker,部署了OpenWebUI
同时跑了几个Ollama大模型
这样就可以在本地调教一些较敏感的以及担心泄密的内容。
进来学知识
进来看看电脑配置
想看看配置,结果没看到
也搞过,可能我的电脑不行,本地部署的大模型就是智障
模型回复速率怎么样
用自己电脑跑啊。。
啥配置?
啥配置参考一下
我也想买一台,过年玩
最大也就9b ,普通电脑就可以
哈哈哈c
佬,请教个问题,本地跑数据分析和报告撰写,哪个模型得劲?
Llama 3 70B 我觉得最好!
谢谢。
70b。。。。。。欧。。。。。。。。no
这个是指 Llama 3.3 70B?能具体讲讲,和类似规模其它模型比,有什么优势吗?
进来看看配置
这是录屏下来的,速度还不错