Gemma 2 这个小模型翻译一些文献比 Deepseek 翻译的更通顺更通俗易懂啊!
p1 和 p2 翻译文献里同样的一段话,温度都是 0.2,prompt 用的沉浸式翻译默认的。p1 是 gemma 翻译的,最后一句话前半句明显比 p2 通顺好读一些。
最后三张图是分别用 claude 3.5、Deepseek 和 Gemma-2-9b/Pro 翻译的,温度控制在 1-1.3,使用同一 prompt,这下小模型的差距就显示出来了。
总结下来,一些理工科领域的简单翻译,用谷歌的这个开源小模型就够了,速度快且质量有保证。追求意译的话可能需要大模型和在 prompt 里面给足 positive 的翻译例子。
AI 沉浸式翻译 Claude DeepSeek Gemini
5 Likes
claude明显领先
在精译层面确实是,只不过看文献的时候追求高并发和翻译速度的话,claude就一般般了,何况它的api还很贵。
是很不错的样子
感觉不错,一直用的deeplx,感觉专有名词翻译的有点拉,可以试试你这个
另外,标签是在标题处打的哦
谢谢佬提醒。我直接调用的硅基流动提供的Pro/Gemma-2-9b。
1 Like
也可以用用qwen2.5的7b模型,翻译也还可以。
都试过,感觉谷歌这个更好一些,速度和并发数也差不多。
Claude强太多了
1 Like
我显卡太拉了,能用api就用api了,反正便宜。
1 Like
左侧栏第二个图标,开发者,上面加载下载好的模型,然后点start就行。
1 Like
Gemma模型一直都很強,我認為是開源模型中最強的,
可惜的點是他的參數最高只有27b,要是跟以前的llama一樣出個405b就無敵了,
翻譯能力Gemma2 9b能堪比qwen2.5 32B、Gemma2 27b 能堪比qwen2.5 72B
還有個問題是Gemma不支持role system,只能用role user,兼容性有點差
3060笔记本能跑10B左右的模型,可以玩玩
完全没看出来p1和p2差别在哪
发现图片上传错了,马上改掉
1 Like
确实还行