🌌 (๑•̀ㅂ•́)و✧ 一个简单设置,大幅提升沉浸式翻译质量!!

先说结论 —— 上下文越充足,翻译越精准!

(\ _ /)
( ・-・)
/っ :hot_beverage: 举个栗子,【草】的翻译:

  • 草 —— Grass
  • 我草 —— FUCK
  • 草泥马 —— Alpaca
  • 潦潦草草 —— Perfunctorily

上下文不同,含义截然不同。同时上下文充足的情况下错字亦可自带修正。

然后先说说沉浸式翻译最核心的 3 个设置项:

核心「每次请求最大文本长度」
简单的说,如果你设置为 1,那就连 apple 都给你劈成 5 个字母独立请求发送 (另外有这个下限设置,意思一样) ,那翻译个蛋。所以这项无论任何情景都建议往高设置。

②「每次请求最大段落数」
字面意思,段落越长,上下文越充足,速度也越慢。
如果设置小那效果就像 流式输出 那样网页肉眼可见地一个个在变化;如果设置太大那就是漫长的等待然后一瞬间全页变中文。

③「每秒最大请求数」
就是每秒发送的请求数量,即 — 并发。一般模型都是按 rpm 算,只能设个大概,Grok 比较特殊是按 rps 算直接输入最高配额 4 就行。


然后有个很特别的模型 —— Gemini Flash Lite :down_left_arrow:

重要!! Gemini 似乎把沉浸式的 Prompt 标记了很容易触发 429,实测把 Prompt 全部换成中文适当改差异,果然又可以一泻千里了。

4000 rpm!!!(gcp/付费渠道 4000,free渠道 30)所以刚出那会就赶紧体验了下,把段落拉到最小、每秒请求数拉到爆炸! —— 确实,网页仅一瞬间就腹泻般地变成了全中文。

(\ _ /)
( ・-・)
/っ :watermelon: 但是当时并未意识到,这一举动大大降低了一些场景的翻译质量。直到昨晚看到了这个 :down_left_arrow:

翻译得地不地道不是学历决定的、不是权威决定的、更不是什么神级通用 Prompt 能左右的,而是 对故事足够的了解 —— 即 足够的上下文


所以沉浸式翻译推出了一个仅限 Pro 使用的「启用 AI 智能上下文翻译」。

(╯°□°)╯ 不是哥们,我想说的是你直接把段落数拉满效果是一样的,都是 全部上下文。。


然后这是之前那个 Document AI OCR 的漫画(html) :down_left_arrow:

这是沉浸式翻译段落设置为 1 的 Grok :down_left_arrow:

然后我把段落数量拉满,并且先把整集的原文投喂到 Prompt 里 ↓

再次网页翻译的效果:

(\ _ /)
( ・-・)
/っ :clinking_beer_mugs: 嗯。


回到标题 ↓

提高翻译质量的关键就是 调大「每次请求最大段落数」

就这么简单。用速度换质量。

然后沉浸式翻译可以添加多个翻译渠道 :down_left_arrow:

不同场景切不同的渠道就好,像网页按钮翻译那种仍然可以用极速 Gemini 享受极致的窜稀体验。

136 个赞

感谢佬友分享 :heart_eyes:

3 个赞

太强了,感谢佬友

1 个赞

感谢佬友解惑,很干

2 个赞

感谢Thanks♪(・ω・)ノ

1 个赞

没有开pro的需求

1 个赞

不过这个pro属实有点贵 :tieba_087:

3 个赞

沉浸式翻译上下文需要Pro :tieba_087:

2 个赞

不是 bro,不用开 pro 啊把段落拉满效果是一样的。

1 个赞

↑ 不重复打字了,同上


是不是这样

最大文本长度调大,直接填模型极限(一般都是 128K 也就是 128000,gemini 的话百万起步)就好,不然的话图中设置超过 1200 字符就会被分块了。

然后 Gemini 主打一个快速,追求质量的话 DeepSeek 的效果可能更好,就是这样设置会慢很多,普通网页翻译一般 2~5 就够了。

学到了!感谢佬友

前两年就是因为这个问题才没用沉浸式翻译,现在居然有这功能了

百度腾讯阿里字节都送券或token,用这个消耗太方便了,狠狠薅ᥬᥬ:full_moon_face:ᩤᩤ

佬分享的有道理,上下文越多,质量越高,段落和文本长度直接拉满,rps设置的差不多就行,我设置的3

感谢分享

那你c一个pro就好了呀 :tieba_087:

1 个赞


佬 这样配置不行吗

free 账号

可以啊,不过你模型名不对吧现在应该不用版本号了,这模型转正了