目前最好的开源翻译LLM是什么?

商用模型我基本上都有,最近部署了ollama,想折腾一下,佬友们用过的最好的开源翻译模型是什么?

7 个赞

阿里的开源模型

1 个赞

日译中 Sakura
其他可以考虑的:Gemma 2, Qwen 2.5, GLM4, DeepSeek 2.5(如果跑得动), Mistral Large 2(如果跑得动)

6 个赞

没有最好,只有,。。只有手上有什么用什么。之前无脑 GCP Gemini Pro,现在换 flash 了沉浸式翻译设了一秒 200 发 5 行长度,翻译速度飞起。


哦哦,没注意到标题的『开源』,潜。反正 llama 405b 加上 prompt 做翻译也很好用,小杯的对中文应该不太行。

1 个赞

试试meta的m2m100-1.2b​:thinking:

试了一下gemini 确实嘎嘎快

这玩意都三年前的了吧,而且也不支持ollama

2 个赞

多帐号吗?还是GCP的?免费帐号都会卡住

国内卡绑的 gcp,基本闭眼用就行。

1 个赞

我用的是本地的qwen2.5 32B q4,24G 显存可以跑,效果我认为相当好了。150万字的书,一晚上就翻译完了。

要速度,gemini-1.5-flash-002
要质量,gemini-1.5-pro-002

qwen吧我觉得

qwen系列,翻译准确度和速度都领先其他同参数大小的模型

1 个赞

qwen2.5 7b的,在我的家用服务器上的750ti上速度还可以。

不过没有最好,搭建openwebui,配合groq的api,使用llama多一些。

llama的最小杯我部署在本地,翻译出来的东西真是一言难尽

最新 90B 的 3.2 多模态还行,不过智力不咋的

gemma 2 27b 速度很快且翻译地道、自然