办公室里很多设备有翻译的需求(英语 日语 韩语等),用 gpt deepseek 这种的大模型跑翻译,有时候遇到网络问题会很慢,可用性很重要。
所以想着本地跑个大模型给局域网用,有一个闲置的设备,192个cpu核心,192G内存,显卡是16G显存的n卡。
所以有没有专门为翻译优化的大模型?或者本地直接部署一个 7B 参数的模型即可?
办公室里很多设备有翻译的需求(英语 日语 韩语等),用 gpt deepseek 这种的大模型跑翻译,有时候遇到网络问题会很慢,可用性很重要。
所以想着本地跑个大模型给局域网用,有一个闲置的设备,192个cpu核心,192G内存,显卡是16G显存的n卡。
所以有没有专门为翻译优化的大模型?或者本地直接部署一个 7B 参数的模型即可?
本地部署就是Aya23
远程api便宜的就是Gemini Flash 2.0(比4o mini还便宜)
谢谢推荐,我去看看。
对于价格来讲其实不是很重要,比较重要的是可用性和准确性。
解决了说一下。
在线api质量还是更好,
要稳定,我看火山的满血r1也一直口碑挺好的
然后我不知道你翻译什么,比如小说,长论文之类的大量文字,术语表和相关适配思考模型(比如满血r1)的prompt能提升翻译质量
既然钱不重要,那你可以搞gemini 1206进行翻译
搞几个gcp300,更稳定