deepseek的商业模式可持续吗?

资本家都是很纯粹的 有钱不赚王八蛋

讲个实际存在的好处,名气大更好融资了,虽然现在deepseek不一定需要。

另外开源了模型,不代表开源训练代码和数据集。这样可以保持优势的。

3 个赞

这些模型的思考时间长都会被截断,完全没有官方的效果

照你这么说只有谷歌这个级别的公司才能开源了,以后大家达不到谷歌的层次就都别开源了

1 个赞

首先,第三方的代理商,他们的优化技术完全不能和deepseek同年而语,要么就是价格更贵,要么就是速度更慢,要么就是上下文长度更短——其他厂商部署的r1的服务根本无法达到deepseek的速度和质量。

还有就是开源,你大可不必担心。

这是我总结的deepseek不等式:

我开源≠你本地能跑。
我开源≠我不能靠卖API赚钱。
我开源≠其他代理商部署之后能与我竞争。

你猜猜为什么deepseek开源的是670B的超大型号?
模型是越大越强,但模型有一个介于部署难度和性能的平衡点——
32B和70B大小的模型。
你猜猜deepseek为什么不开源这个型号的模型?

web端免费给大众服务,这既是普惠,也是给自己做广告。deepseek的api是盈利的,用他们api的人越多,他们赚的也越多。

最后,我想你差不多也该看出来了,LLM这个东西,它是纯粹的智能,它不像是单纯的工具,甚至它超越了“商品”的范畴,它更像是一种“智能基础设施”,所以靠“闭源卖会员订阅”智能赚得了一时的钱,但随着开源模型和闭源模型的差距逐渐缩小(r1已经能和最先进闭源模型媲美),这个商业模式注定死路一条。

deepseek的应用免费开放使用,模型权重开源,这绝对是一条正确的道路,利己又利他。

1 个赞

而且模型权重开源,直接让deepseek占领全球AI公司的道德制高点,甚至于直接“不可选中”。对中国AI整体也是正面的宣传。

开源,让任何对deepseek和对r1模型的攻击都显得苍白无力——你说r1这不好,那不好,那你模型开源吗?

开源给deepseek带来了巨大的名望和声量,这是一笔巨大的隐性财富,能让世界任何一个研究AI的小组都基于deepseek的模型进行研究,无论是第一梯队的小组还是水平垫底的小组。

相对而言,卖会员那点仨瓜俩枣和这份隐性财富而言,简直不值一提。

性能,便是AI模型的一切。

如果你把一个性能一般7b小模型开源了,那你做了一件好事,路过的人会给你点个赞,但总体来说无人在意。

什么?!你把性能T0的670B参数的MoE模型开源了?那你便是这AI界最闪亮的灯塔,是AI之光,全世界都会向你靠近。

8 个赞

其实有没有一种可能,就是他们还没想商业化

请教,什么叫模型权重开源?什么是部署水平(为什么开源出来的,还要看优化能力)?

开源的肯定不给,不过deepseek r1放出来,说不定已经有了更好的模型在手上

模型权重就是模型文件本体啊,他们只开源了模型本体、论文和推理代码,再加上他们的采用的MIT协议,这基本上是AI模型界开源力度最大的了。
他们的训练代码并没有开源,大模型的大范围部署也是一个复杂的工程,因为不是个人本地部署,是要同时服务很多用户,这其中有大量可以优化的工程细节,这些deepseek是不可能公开的。
这就是为什么deepseek官方的api性价比是最高的。

api基本不赚什么钱吧,deepseek如果闭源绝对没有这么大的声量

你太小看品牌的价值了

蹭点热度吧?这妥妥的流量不蹭白不蹭,正好顺带提携一下本来就有的模型

deepseek火的最大原因还不是是开源的www

强强联合了

看不懂就对了

梁文锋的采访里说了他们不缺钱,目前就潜心研究AGI的新技术,应用他们都不打算做的(可能这也是官网比较简陋的原因)

不会的,
①价格方面:deepseek的基底模型的优化效率是全网最好的,而且有缓存机制,价格上始终有无法超越的优势。
②性能方面:其他厂商部署的模型精度一般是int4或者fp16,精度并没有deepseek的fp8和bf16高,模型性能在专业场景下无法与deepseek竞争。

确实,没有开源或者公开大模型的训练参数和细节,以前看了篇科普文章,训练大模型是成本最高最难的工作也是最消耗算力的。