大家有没有感觉现在大语言模型的技术发展快要到头了

开源方面llama4已经公认是一坨了,qwen3相较于上一代也没有显著提升。

商业模型方面openai至今也没有发布gpt5,反而整出4.5这种烂活,claude最近也只是把3.5 升级到了3.7,只有gemini2.5pro相较于上一代提升比较大

但是即使是现在最顶尖的模型,离真正的agi还是距离遥远,本质上还是基于概率的预测而不是真正的智能。

感觉现在的模型升级更多的只是工程上的进步,如果底层的模型架构没有新的突破的话,目前已经快要达到了llm模型的技术瓶颈了。

当然以上只是我纯外行的一些感受,不知道你们有没有这种感觉

25 Likes

不是技术发展快到头了,而是数据跟不上技术发展了

11 Likes

现在力大砖飞带来的性能提升还能让我惊叹
技术瓶颈什么的让那些天才们去考虑吧

4 Likes

:rofl: 我的感觉刚好相反,就从原理上说现在所谓的ai也未必是一种好的方法。就好比人类现在的ai水平可能是蒸汽时代,后边的内燃机、电动机、核能还早着呢

7 Likes

应用跟不上技术,没资金

3 Likes

正在憋大招也不一定,重大突破一时半会不会,但持续的迭代优化,更加聪明还是会有的,就像去年卷了了一年,最后才卷出了思考路径,虽然底层不变,但也是突破了。得持续观望啊

5 Likes

要看deepseekv4或者r2是什么样

4 Likes

可能现在可以用来训练模型的高质量数据也被用的差不多了吧,但即使这样模型的能力还是只能达到现在这样的水平,不是也可以从侧面说明现在这条技术路线未必是通往agi的路吗

4 Likes


经典技术发展图

37 Likes

是大模型公司能得到的高质量数据被用的差不多了,不是高质量的数据不够了,就像冰山,普通人能看到的互联网数据只是冰山一角,高质量的就更少,大模型公司能看到的比普通人多,但更多的也是看不到的,高质量的数据更多的都在企业内部。

5 Likes

投资和回报不成比例吧,投资人的钱也是钱 :upside_down_face:

1 Like

真没有这种感觉,感觉还有一股很强的后劲,现在都在围绕着搞各种领域的应用探索

1 Like

感觉现在发展进入一种瓶颈期,方向不是很明确

显卡不够强、数据不够好;LLM 还没学会真正的创造

把我从其他地方的一个回答贴过来

非业界,只是对大模型有一定了解。

  1. 很显然大模型不是所谓的“更高级”检索。大量例子表明 LLM 具有真正的泛化性,至少也是具有“通用模式匹配”的能力。
  1. 很多人刚刚了解一点大模型的原理,就以 LLM 是“学习文本统计意义下的预测”这一点来否决 LLM 具有的泛化能力(他们通常还会辅以“LLM 具有幻觉”这一点作为例证)。LLM 是学习文本的统计学规律没错,但是我见过的任何一个持此类观点的人都无法陈述为什么学习统计学规律就无法产生真正意义下的“智能”(事实上,他们甚至无法准确地定义“智能”,就大谈“LLM 永远不可能有真正的智能”),LLM 会产生幻觉这一点也不蕴含 LLM 不能泛化,无法产生“智能”。
  1. 与其关注“真正的智能”这种难以定义虚无缥缈的东西,还不如关注 LLM 能怎么用,缺乏什么能力阻止他变得更有用。我在这里得出的严重乃至本质上的需要克服的缺陷有两个:1. 无衰减的超长上下文 2. 持续学习(更新参数的那种)。只要解决这两点,大模型在实际生活生产中的应用可以大幅拓宽。甚至我觉得就凭现在先进的推理模型(比如 Gemini 2.5 Pro / o3 )加上上述两点就能实现非常接近 AGI 的存在。

目前我觉得 LLM 就算达不到 AGI,他也还能走很远。

4 Likes

还是缺落地场景,技术再牛逼,没人用也就昙花一现,需要能够持续有用户和增长,才能有良好的发展前景,比如ai coding一开始可能让人惊艳,但用的越多发现还不如自己写,那还是个半成品,无法形成良好的增长路径

只是scaling law而已

1 Like

多给予些时间吧,回头看过去的两年,真的已经进步很快了。

1 Like

现在是数据量不够,不像这几年一直堆数据就能带来提升了,现在的模型规模都十分大了,而新技术的突破需要时间。

没感觉诶。。

1 Like