看搜索结果,有推荐google T5。之前用ollama本地大语言模型,感觉受制于显卡性能(笔记本3050感觉跑起来很慢)
13 Likes
T5就是传说中的encoder-decoder模型,最大尺寸相当于~10B的decoder-only模型,也就是通常所谓的大模型。从尺寸上看,任意一个~10B左右的模型(硅流上免费模型都是10B一下的)用于文本翻译效果都不错,较新的模型效果更好,比如 yi-1.5-9b-chat,glm-4-9b-chat,gemma2-9b-it,qwen2.5-7b-inst,internlm3-8b-inst(不包括llama-3.1-8b是因为ta不会说中文)。
本地部署~10B模型用ollama效果还可以,3050跑qwen2.5-7b应该不会太慢。再小一些的模型需要微调才能保证效果,比如 WiNGPT-Babel 是基于 qwen2.5-1.5b 微调的翻译专用模型。
9 Likes
硅基上的 Qwen2.5-7B,够快够用够好
3 Likes
翻译英语还是日语还是其他
用的qwen14b翻译的还可以
个人一直用4o-mini,其实够用了,但是你可能得给个词汇表,比如transformer到底是保留还是翻译为变形金刚、变压器。
能问下翻译日语用哪个模型比较好吗
Gemini或者Claude
1 Like
此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。