请问自己本地搭建Ollama大模型有什么优势?

佬还不如说新机多少钱呢 ,哈哈哈 :sunglasses:

本地部署的好像还是不怎么能说NSFW的样子

没有审查呀


最高我用的14B的模型,能满足我的需求,我觉得还可以,对比起来与mini差别不大

京东买的,又多加了一条2T固态,9300多

主要是隐私性问题吧

什么显卡,4090吗 :sunglasses:

是的16G显存的

对我来说还是配置要求太高了,也没什么保密需求,还是直接用成品吧

直接用 API 最方便

1 个赞

类似厂家的 多供应商策略
本地有模型,你就掌握了议价权,可以游刃有余。

还有些特定的 操作链,如果加入llm 会产生非常奇妙的效果,但想要和 云端 账号之类的解耦,那本地大模型就非常合适。(如果你要编写 Agent, 可以让本地模型 去调用更加敏感的资源,然后返给 云端 LLM)