DeepSeek 正在加速推出其R2人工智能模型

据说是假的

值得期待

说到内卷那肯定不用担心国人的公司,不过海的对面也不少华人,感觉ai军竞要开卷了

r1的论文里说,强化学习训练的新方法的上限很高

所以,哪怕没有别的创新点,只是把r1加大规模,也能比r1强很多

现在的专家只是32b的,千问之类的推理模型的专家都是72b起步的。openai和grok的推理模型的专家规模应该也至少是72b以上的

1 Like

此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。