沉浸式翻译一天的Token消耗量2M+!恐怖如斯

这火山的消耗量怎么这么离谱,之前用4o-mini的时候没这么多消耗量呀,用v3竟然能跑这么多

7 Likes

佬你这是高强度使用翻译啊,是不是把缓存功能关闭了,这么能跑

1 Like

估计是:看的文章多了/文章内容长/刷新页面多,不过这个数据?真不是把一个页面刷新十几遍吗。。。

1 Like

翻译的话输入和输出差这么多吗,输入都是输出的八倍了。

可能是使用的 prompt 太长,且每次输入的未翻译文本数量不多

1 Like

推荐把翻译模型加入协作计划,不然根本用不起 :tieba_087:

2 Likes

很正常,你看我的,还好是V3输入价格

你用cline就知道什么叫消耗多!



我天天看各种英文文档。反复刷新反复看,可能沉浸式插件缓存做的不行

有的是代金券烧 :tieba_025:

1 Like

RAG更烧,每分钟30W token,几个小时给我刷了毛三千万的tokens :joy:

RAG?
知识库?嵌入模型?好在那些很便宜,百万才几分钱一毛钱不到

之前用graphrag,图数据库,用的是大模型,非嵌入模型。

rag构建一次之后是不是就不用花费太多了

普通的是的,但是graphrag之前有不好的一点是不能增量更新。现在还行了

1 Like

你咋用这么多

有点问题 是不是几个词的翻译也用了一大段Prompt?

效果怎么样 用什么embedding比较好呢

不要钱吗?

为啥不卡你们调用api,我调用api超级慢

1 Like

应该有这方面原因

一天送500万,根本用不完…

1 Like

怎么能花这么多?字幕组吗


x的额度我都用不完

1 Like