沉浸翻译里面免费或者比较便宜但是堪用的服务是哪一个?

现在用的是豆包的浏览器扩展。
openai这里,从gpt-4-0125p开始的翻译质量就基本上挑不出什么错了,但是新模型出来,他们没有降价,只是维持原价推出了更好的4o

3 Likes

字节的火山方舟 之前说是送的5亿 token

2 Likes

5亿翻不了几个网站就没了,而且他似乎还不如bing翻译

1 Like

直接用始皇的DEEPLX不行么

3 Likes

deepseek

2 Likes

:sweat_smile:张嘴就来啊,5亿token翻译几个网页就没了?你翻译一个网页1亿token吗,就算一天用掉100w token至少1年半才能用完。
豆包的我用了一阵,翻译效果不至于连机翻都不如

5 Likes

用过几个,具体效果自己挑吧。
硅流的10B以下大模型免费了,现在用着glm4-9b。
始皇的deeplx、之前硅流注册送42元时用deepseekv2。
不过deepseekv2指令遵循不太行,是不是会额外加一些文本。

腾讯

我的使用体验是,Deepseek还没出现过翻译时出现额外文本的问题,我遵循deep seek官方文档说明,将温度调到了1.1。在大部分时候,翻译质量跟Deepl不相上下,有时甚至更好些,读起来更舒服。
而Qwen2-72b-instruct就会出现额外文本的问题,而且翻译质量时好时坏,还有些啰嗦,不简洁。

1 Like

一本书按50w tokens计算,5亿tokens也能翻译1000本呢…

1 Like

我用的火山翻译,ai厂家的倒是没用

+1
其实很好用。。

deeplx
其实谷歌的也还可以的

1 Like

有官方指引?来个链接看看。
我这是所有LLM都设置成温度为0了。

3 Likes

沉浸式翻译插件里面好像没找到设置温度的配置呀

在 展开更多自定义选项 下面有

找到了,帮助之后的佬友
https://dash.immersivetranslate.com/#developer

4 Likes

不需要开发者设置…设置里面就有!

感谢~