Ai 为何不懂或不明白的事情,永远不直说?而是编。。。。

让gemini 给我按照正序解说一下电影《记忆碎片》,好家伙。。。直接给我编了另一个故事出来。。。一本正经的说了半天。和原片几乎是完全不同的两个故事。。。。

10 个赞

幻觉时刻w

2 个赞

我让ai总结一下神秘复苏小说里的一个事件也是给我胡编乱造

因为ai根本不知道什么是懂或者不懂,采样生成罢了

6 个赞

本身llm就是概率游戏啦,它可能根本不知道你在说啥

3 个赞

简单来说就是大模型没有“知道自己不知道”的能力

2 个赞

总不能让你冷场吧tieba_025

8 个赞

为啥已读的点点不掉呢

1 个赞

我的理解有几个原因,第一个是llm训练的时候,一个问题有对应的回答会被认为是一个优秀的训练数据,一个问题直接回复了不知道或者无法回答,其实没什么信息量,对llm来说是垃圾数据,所以他天然见到的大部分数据就是,你问,我就要回答你,就会编。 第二个是模型本质就是个概率生成器,所以一般情况下,接下来概率最大的那个token,不太会是不知道这种答案。

1 个赞

大模型的输出全都是编的,只是有的会的编的就准,不懂得就瞎编 :bili_040:

因为AI不知道它生成的内容是不是编的,它只知道它要生成Token :tieba_025:

2 个赞

我觉得你这个解释很完美 :joy:

1 个赞

不是说他家中文不行吗

2 个赞

gemini的中文还行啊,从刚开始出来我就一直在用。不过翻译水平不如QWEN。

2 个赞

不是万能的。让他画个图都画不好

说没中文字体

其实有个问题,互联网上水帖有点多,真正解决问题的没几个,有些数据就被用来训练ai了

1 个赞

AI聊着聊着,不来句严格参考网络资料/基于某某资料,就开始编,有模有样的,而且你说错他马上编另一个,你说对他马上说是的,你说的没错:drooling_face:

是的,我说他不对,他就觉得他确实不对,然后又编一个新的。。。

transformer架构就是如此,吐字机而已,吐出什么看训练的概率

1 个赞