开源的本地Ai模型大多都不如open ai的gpt聪明是为什么呢

如题,天天听说什么code 70b超过gpt4了什么之类的新闻,但是实际体验感觉大部分碰瓷gpt3.5都感觉有点困难

那你猜猜gpt用了多少显卡支撑的?:face_holding_back_tears:

good

大佬,原来是这样,不过在我的理解范围是这样的,因为open ai是服务全球那么多用户是吧,显卡多正常,但是只服务一个人的那种模型,开源的已经训练好的,也还是需要更多的显卡?

人家是持续训练的模型,给你开源的只是一个固定时期的版本,而且gpt3.5没有开源

是的,并不是单纯用户数量问题,要达到gpt3.5甚至4,光是模型本身就不是一般家用设备能承担的,家用设备的能力只能跑精简过的,超出范围的回答当然就笨了

尽管如此还是有他适用的场合,gpt模型大,是因为他一个模型囊阔了很广的样本范围,适合gpt这样商用面向「万事屋」的服务;而假设你是公司的职守问答机器人,或者内部文档整合,那么这些小模型就足够应付。

现在专针对角色扮演训练的模型也要12G显存起步,速度还不是很理想,你想想gpt那种万事通,已经不是公不公开模型的问题,4的模型就算是泄漏了你也不可能跑起来的,而如果你花大钱租云端主机,那何不直接官方买 api 用就得了 :rofl:

1 Like

:joy:什么媒体会天天报道超GPT-4?:black_joker:

GPT4好像使用的是70b规模的模型。

数据量上就不是本地部署的LLM所能比较的。

一般来说,24G显存,不量化的情况下能加载RWKV的14b。

另外,初代GPT3的数据量应该更大,现在的GPT为了控制成本已经被阉割很多了

加油啊,我的国!!!

gpt4 plus月租20刀,谁家ai超过gpt4敢大方开源的,肯定都搂着赚钱去了,即使收费如此,openai目前也是烧钱在做ai,大模型之大,远超你的想象。

本地开源打人家超级计算机支持的gpt 想啥呢

原来gpt4的参数量是70b,量化一下8张v100能跑起来。

真有那么好早商用了