最适合沉浸式翻译的模型:火山方舟(字节)的Deepseek-V3

还在为公益站一天到晚爆炸而苦恼?还是说API二道贩子延迟爆炸,你都把原文读完了他还没给你翻译过来?

在这里推荐火山方舟(字节)的Deepseek-V3模型tieba_013

优势:

  1. 50万token的免费额度,足够使用一段时间的,我这里用了好几天连一万都没用完;免费额度之外使用Deepseek原价充值即可
  2. 使用字节自家服务器,延迟低稳定不转圈圈(不像Deepseek官方API,卡的要死还经常爆炸)
  3. 使用简单,两分钟解决问题
  4. Deepseek-V3的翻译质量足够日常使用,个人感觉比gpt-4o稍强一点点

使用方法:

  1. 如果没用过火山方舟的话,先注册账号,现在有限时活动点我的邀请链接免费得15块代金券
    AFF https://www.volcengine.com/activity/deepseek?utm_term=202502dsinvite&ac=DSASUQY5&rc=L2AY7N85
  2. 打开火山方舟控制台网站 https://console.volcengine.com/
  3. 使用手机号登录(后面需要实名验证,我忘了啥时候了)
  4. 进入后,在左侧找到”在线推理“,点击进入后选择中间的”创建推理接入点“,在创建界面中名字随便填,模型注意,要选择”Deepseek“分组的Deepseek-V3(Deepseek-R1太慢,不适合沉浸式翻译),然后右侧点击”确认接入“
  5. 创建API Key:
    可以在左侧那一列往下滑,找到“API Key管理”,自行创建;
    也可在之前的“在线推理”界面,从你刚创建的推理接入点右侧,点击“API 调用”蓝色字,创建
  6. 你现在需要复制两个东西:
    第一,你刚刚创建的API Key,一串字母;
    第二,接入点:这个很特殊,是“在线推理”界面,那个蓝色“Deepseek-V3”模型名字下面的ep-开头的灰色小字,应该是长这个样子:ep-20250212123456-1a2bcd
  7. 进入沉浸式翻译插件的设置界面,左侧选择“翻译服务”,找到豆包(不是火山翻译,是豆包!),然后把API Key和接入点填进去,结束。当然也可以设置设置其他选项
  8. 在翻译网页的时候记得左键你的粉红色沉浸式翻译图标,选中”豆包“,即可愉快使用!
  9. 想看看免费额度剩多少?回到火山方舟控制台,左侧划到底,找到”开通管理“即可查看

懒得看文字?可以看 @tech-shrimp 的视频教程,从3分06秒开始

最后说几句,Deepseek的官方API一直就不稳定,这在意料之中。主要是Deepseek本来就不靠他赚钱,连模型都开源了Web端都免费了,更不在乎这点。所以在如此庞大的使用量面前,维护程度比较差劲也在意料之中。现在想要稳定使用Deepseek系列模型,还真的求助第三方。

Azure之类的需要Visa卡,可能对境内用户不太友好;其他的例如硅基流动输出窗口有限制;火山引擎在国内范围内,应该是使用起来既方便也友好同时免费额度也不错的一个第三方了

沉浸式翻译自古以来深受国内各大公益站唾弃:高并发常常会瘫痪号源稀缺的服务器小水管。好在字节财大气粗,给到30000 RPM和5000000 TPM,日常使用绰绰有余,谁用谁说好tieba_002

135 个赞

哈哈,沉浸式翻译我用的还是 glm

29 个赞

前两天那个mistral 不是号称最快,感觉很适合沉浸式翻译的场景

24 个赞

看着他确实很快,不过我听说他好像智商有问题?现在好像没啥人用它,先观察观察再说

24 个赞

那个智商不太行,不知道用的是哪个级别的模型

5 个赞

感谢分享,真好用,用上了

6 个赞

感谢科普

8 个赞

用了R1,v3还没用。

突然发现,好像每个模型都是给50万,不是共享50w额度。。。。

10 个赞

硅基 v3也很好,或者直接用v2.5效果也能达到90%

7 个赞

教程很好,支持

8 个赞

硅基v3现在不是很慢吗?做翻译能行?

8 个赞

试了下,翻译速度是挺快

8 个赞

我用的免费硅基,挺好的

9 个赞

我来试试,谢谢分享

1 个赞

硅基不是经常炸吗?

1 个赞

免费的那些不炸

你用7B的?

这些智商不够:joy:

1 个赞

不是,免费的glm这些,deepseek不高兴用来翻译

2 个赞

glm翻译应该不如Gemini吧!

1 个赞