最新版的 OpenAI Translator 已经无缝支持本地大模型高质量翻译

好消息!好消息!最新版的 OpenAI Translator 已经无缝支持本地大模型了(Ollama),无需联网,快速便捷,安全稳定!再也不怕 OpenAI 账号被封了!翻译效果对比大家可以看一下截图,大家快来下载体验一下吧!

高质量翻译

17 Likes

23个点击链接的人,不如一个我给你回帖点赞的人

3 Likes

我也来回复

1 Like

理想很丰满 现实太骨感,部署本地大模型?你机子吃得消吗?

没有显卡的服务器都不敢想本地模型的事

你怕是对本地大模型有什么误解,调用的还是api

1 Like

机器不行,很慢

这想要立场使用得什么级别的显卡

6啊

多开idea畏畏缩缩 本地大模型我重拳出击

1 Like

可以的

本地跑个大模型,我的电脑抗不住

最近本地跑ollama 这个得加上体验一下。

有意思,可惜没有太好的硬件能带本地大模型

能出个教程,更好吧