适合翻译模型有推荐么

看搜索结果,有推荐google T5。之前用ollama本地大语言模型,感觉受制于显卡性能(笔记本3050感觉跑起来很慢)

13 Likes

T5就是传说中的encoder-decoder模型,最大尺寸相当于~10B的decoder-only模型,也就是通常所谓的大模型。从尺寸上看,任意一个~10B左右的模型(硅流上免费模型都是10B一下的)用于文本翻译效果都不错,较新的模型效果更好,比如 yi-1.5-9b-chat,glm-4-9b-chat,gemma2-9b-it,qwen2.5-7b-inst,internlm3-8b-inst(不包括llama-3.1-8b是因为ta不会说中文)。

本地部署~10B模型用ollama效果还可以,3050跑qwen2.5-7b应该不会太慢。再小一些的模型需要微调才能保证效果,比如 WiNGPT-Babel 是基于 qwen2.5-1.5b 微调的翻译专用模型。

9 Likes

硅基上的 Qwen2.5-7B,够快够用够好

3 Likes

翻译英语还是日语还是其他

用的qwen14b翻译的还可以

个人一直用4o-mini,其实够用了,但是你可能得给个词汇表,比如transformer到底是保留还是翻译为变形金刚、变压器。

能问下翻译日语用哪个模型比较好吗

Gemini或者Claude

1 Like

此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。