Gemma这个9b模型用来翻译意外的不错

Gemma 2 这个小模型翻译一些文献比 Deepseek 翻译的更通顺更通俗易懂啊!
p1 和 p2 翻译文献里同样的一段话,温度都是 0.2,prompt 用的沉浸式翻译默认的。p1 是 gemma 翻译的,最后一句话前半句明显比 p2 通顺好读一些。
最后三张图是分别用 claude 3.5、Deepseek 和 Gemma-2-9b/Pro 翻译的,温度控制在 1-1.3,使用同一 prompt,这下小模型的差距就显示出来了。
总结下来,一些理工科领域的简单翻译,用谷歌的这个开源小模型就够了,速度快且质量有保证。追求意译的话可能需要大模型和在 prompt 里面给足 positive 的翻译例子。
AI 沉浸式翻译 Claude DeepSeek Gemini





5 Likes

claude明显领先

在精译层面确实是,只不过看文献的时候追求高并发和翻译速度的话,claude就一般般了,何况它的api还很贵。

是很不错的样子

感觉不错,一直用的deeplx,感觉专有名词翻译的有点拉,可以试试你这个

另外,标签是在标题处打的哦 :tieba_088:

谢谢佬提醒。我直接调用的硅基流动提供的Pro/Gemma-2-9b。

1 Like

也可以用用qwen2.5的7b模型,翻译也还可以。

都试过,感觉谷歌这个更好一些,速度和并发数也差不多。

LM Studio有这个模型,可以在自己电脑上跑,不过我还不知道咋调用,先下载再说 :rofl:

Claude强太多了

1 Like

我显卡太拉了,能用api就用api了,反正便宜。

1 Like

左侧栏第二个图标,开发者,上面加载下载好的模型,然后点start就行。

1 Like

Gemma模型一直都很強,我認為是開源模型中最強的,
可惜的點是他的參數最高只有27b,要是跟以前的llama一樣出個405b就無敵了,
翻譯能力Gemma2 9b能堪比qwen2.5 32B、Gemma2 27b 能堪比qwen2.5 72B
還有個問題是Gemma不支持role system,只能用role user,兼容性有點差

3060笔记本能跑10B左右的模型,可以玩玩

完全没看出来p1和p2差别在哪 :bili_001:

发现图片上传错了,马上改掉

1 Like

确实还行