加州大学伯克利分校开源了一个 14B 模型,该模型在编程方面可与 OpenAI 的 o3-mini 和 o1 相媲美!
他们在 24K 个编程问题上对 Deepseek-R1-Distilled-Qwen-14B 应用了 RL。
仅需 32 H100 运行 2.5 周(约 26,880 美元)!
它是真正的开源。他们发布了一切:模型、训练代码、数据集和一篇详细的博客(链接在帖子中)。
终于,我们可以本地运行的一个强大的编程模型。我希望 Sam 能开源一些比这更好的东西。
加州大学伯克利分校开源了一个 14B 模型,该模型在编程方面可与 OpenAI 的 o3-mini 和 o1 相媲美!
他们在 24K 个编程问题上对 Deepseek-R1-Distilled-Qwen-14B 应用了 RL。
仅需 32 H100 运行 2.5 周(约 26,880 美元)!
它是真正的开源。他们发布了一切:模型、训练代码、数据集和一篇详细的博客(链接在帖子中)。
终于,我们可以本地运行的一个强大的编程模型。我希望 Sam 能开源一些比这更好的东西。
这么有实力
看着好有实力啊w
可是我连14b也跑不起来
牛哇牛哇
虽然知道画这个图是为了显示训练带来的提升,但是把一个N/A放在x轴最右边,并且注明Ratio表, 感觉有点不严谨了
但是其实没区别。o1和o3 mini至少有500B,大概率1T以上
ucb nb
等aider排行榜更新。现在模型coding能力的排行榜只认aider
这么强么
还是有卷AI的
qwen!
期待一下
有没有佬试一下的,好用我本地也跑一个
这么强?!
关注下
什么配置能跑
oai 不开源也没报告,严谨不起来啊
14B,可以自己部署啦
奥特曼看了看本来答应网友的开源模型,赶紧再加班训练,别到时候还比不过人家
14b,至少得12G显存吧