deepseek的便宜模型没有了,寻找平替中

deepseek在 圣诞节吧 26号升级到了v3,包括网站和api,1百万token输出的价格也随之来到8元,而非之前的2元

以后梗概小说还是用4o-mini或者以后的gemini 2.0flash了,后者目前还没有公开价格应该比≤4o-mini,与此同时,还有qwen和豆包

8 个赞

硅基流动 方法自寻

4 个赞

token工厂 :grin:

2 个赞

下一步就是给出你的邀请链接是吧,为啥不直接用官方的api呢

2 个赞

官方的还能撑住45天

4 个赞

我没贴链接,我现在不缺这玩意,没必要好吧

5 个赞

开个玩笑

2 个赞

感觉也不算太贵,涨价后我还是觉得算良心的

2 个赞

主要有缓存吧 还可以拉

既然改了价位,还是希望保留一个跟原本差不多价格的低配版本然后加个mini之类的,毕竟本来是超低价位的定位,虽然乐见能力跟吐字速度提升,但对于没有这个需求的场合就比较浪费了。

因为硅基随便薅啊 :tieba_087:

因为官方自动升级v3,木得2.5用了 :rofl:

让硅基把价格打下来

硅基的tpm实在是太低了,一般个人使用,撑破天就用量等级2吧?很多人都是0-1,就1w多一点的tpm
还有一个问题是,硅基不支持缓存,上下文也只有32k


2 个赞

智谱ai也挺好的呀,价格更便宜。代码补全也不错。 GLM-flash还是免费的

2 个赞

不是,4o mini能和deepseek v3比???拿4o比才差不多吧

4 个赞

实话说这价格很良心了。

1 个赞

你得看我场景啊,梗概小说,token是按几百万输入的,几十万输出的

1 个赞

需求越大,收获应该也更大,那成本也应该更大。都是正比关系。

呃呃,8块的模型的话我为什么不去用sonnet