微软研究人员推出20亿参数的1.58比特大模型BitNet b1.58 2B4T。该模型极其轻量,非嵌入式内存占用仅400MB,因此可在CPU上高效运行,甚至能在苹果M2芯片上运行。
虽然比特数减少影响精度,但得益于4万亿Token训练,其在多项基准测试中表现优于部分同类模型。不过,实现高效运行需依赖特定的bitnet.cpp推理框架,该模型已在Hugging Face开源。
微软研究人员推出20亿参数的1.58比特大模型BitNet b1.58 2B4T。该模型极其轻量,非嵌入式内存占用仅400MB,因此可在CPU上高效运行,甚至能在苹果M2芯片上运行。
虽然比特数减少影响精度,但得益于4万亿Token训练,其在多项基准测试中表现优于部分同类模型。不过,实现高效运行需依赖特定的bitnet.cpp推理框架,该模型已在Hugging Face开源。
希望groq能上,groq上的gemma是我用过最快中质量最好的翻译模型了,大大提升看文献的速度。这样就可以对比一下两大巨头哪个更强了。
大佬 用的那个看文献呀 ???groq 这个是那个 grok吗 ???
感谢 , 你是真快呀 哈哈哈 是住在社区了吗???
也许是吧…
佬,这是什么翻译软件啊
佬翻译用的是哪个模型,是openai的whisper-large-v3-turbo吗
佬 为啥我创建了 api 只能用这两个呢?
我用的是groq提供的gemma,不是grok,我用uni-api套了一下号池,提示词就稍微改了一点,增加了一些专业背景描述,效果就挺好的。