Grok-1的训练数据来源于互联网截至2023年第三季度的数据以及AI导师提供的数据。它的上下文长度为8192个Token。Grok-1采用了8名混合专家架构(MoE),每次输入会激活两名专家,这样的机制让模型在处理复杂问题时具有更强的能力和更高的效率。
Grok-1的发布,不仅为AI技术的发展注入了新的活力,也为商业应用打开了大门,并对OpenAI提出了有力的挑战。这不仅是对OpenAI的挑战,也是对整个开源界的推动。Grok-1在一些代码生成和多模态语言理解的任务上超越了其他模型。
1 Like
不知道,没有机器跑,请大佬说说测试怎么样
24 Likes
之前讨论过了https://linux.do/t/topic/39435,结论是普通人玩不了
1 Like
最低配置5台H100
1 Like
玩不起玩不起
24 Likes
上次看到有视频m2 ultra 192G能用
1 Like
只能看别人玩
1 Like
来了
现在有很多模型都比3.5强。。。
From #develop:ai to #share