进来聊聊马斯克开源的Grok-1怎么样,据说超过Chatgpt3.5。

Grok-1的训练数据来源于互联网截至2023年第三季度的数据以及AI导师提供的数据。它的上下文长度为8192个Token。Grok-1采用了8名混合专家架构(MoE),每次输入会激活两名专家,这样的机制让模型在处理复杂问题时具有更强的能力和更高的效率。
Grok-1的发布,不仅为AI技术的发展注入了新的活力,也为商业应用打开了大门,并对OpenAI提出了有力的挑战。这不仅是对OpenAI的挑战,也是对整个开源界的推动。Grok-1在一些代码生成和多模态语言理解的任务上超越了其他模型。

1 Like

不知道,没有机器跑,请大佬说说测试怎么样

24 Likes

之前讨论过了https://linux.do/t/topic/39435,结论是普通人玩不了

1 Like

最低配置5台H100

1 Like

玩不起玩不起

24 Likes

上次看到有视频m2 ultra 192G能用

1 Like

只能看别人玩

1 Like

来了

https://linux.do/t/topic/37786/21

1 Like

现在有很多模型都比3.5强。。。

From #develop:ai to #share