Ai 为何不懂或不明白的事情,永远不直说?而是编。。。。

有啥专业术语描述这种情况吗

感觉跟算命一样

3 个赞

就是ai幻觉

AI有幻觉,AI不知道自己到底懂不懂,不知道自己在说什么

是的,写代码也是这样,胡编乱造

本质上LLM只是输出下一个概率最大的词,其实由于这个世界是巨大的复读机,才导致LLM看起来有了“智能”,但并不是真正的“智能” :bili_075:

3 个赞

幻觉,我记得a社官方文档有教如何避免模型幻觉

刚开始不成熟时候有出现过它不会的情况,即持续输出相同字符无止境:joy:

AI也不知道自己到底知不知道,它只会从数据里挑最接近的答案而不管对错 :weary_face:
…直接说不会的话确实很没意义很没建设性。不过也可以省下和它对线交流的精力。话又说回来有些领域的问题,它就算不会乱编,你偶尔也能根据它的回答找到点方向。

ai永远不能给出绝对正确的回答,因为他们只是在概率里梦游的患者。

其实人也只是一个更复杂的概率的集合体而已,甚至不确定性要更高。

1 个赞

出幻觉了

幻觉问题还是不好解决的吧 :tieba_087:

幻觉是针对人类来说的。不是针对AI。

不会编故事的ai不是好 ai。

他可能当作你要他编一个了

他不知道自己不知道,以为自己知道

中文最烂的应该是gpt,到现在都是谢特,gemini的中文反倒是前几名

感谢科普,学习到了