有啥专业术语描述这种情况吗
感觉跟算命一样
3 个赞
就是ai幻觉
AI有幻觉,AI不知道自己到底懂不懂,不知道自己在说什么
是的,写代码也是这样,胡编乱造
本质上LLM只是输出下一个概率最大的词,其实由于这个世界是巨大的复读机,才导致LLM看起来有了“智能”,但并不是真正的“智能”
3 个赞
幻觉,我记得a社官方文档有教如何避免模型幻觉
刚开始不成熟时候有出现过它不会的情况,即持续输出相同字符无止境
AI也不知道自己到底知不知道,它只会从数据里挑最接近的答案而不管对错
…直接说不会的话确实很没意义很没建设性。不过也可以省下和它对线交流的精力。话又说回来有些领域的问题,它就算不会乱编,你偶尔也能根据它的回答找到点方向。
ai永远不能给出绝对正确的回答,因为他们只是在概率里梦游的患者。
其实人也只是一个更复杂的概率的集合体而已,甚至不确定性要更高。
1 个赞
出幻觉了
幻觉问题还是不好解决的吧
幻觉是针对人类来说的。不是针对AI。
不会编故事的ai不是好 ai。
他可能当作你要他编一个了
他不知道自己不知道,以为自己知道
中文最烂的应该是gpt,到现在都是谢特,gemini的中文反倒是前几名
感谢科普,学习到了