让gemini 给我按照正序解说一下电影《记忆碎片》,好家伙。。。直接给我编了另一个故事出来。。。一本正经的说了半天。和原片几乎是完全不同的两个故事。。。。
10 个赞
幻觉时刻w
2 个赞
我让ai总结一下神秘复苏小说里的一个事件也是给我胡编乱造
因为ai根本不知道什么是懂或者不懂,采样生成罢了
6 个赞
本身llm就是概率游戏啦,它可能根本不知道你在说啥
3 个赞
简单来说就是大模型没有“知道自己不知道”的能力
2 个赞
总不能让你冷场吧
8 个赞
为啥已读的点点不掉呢
1 个赞
我的理解有几个原因,第一个是llm训练的时候,一个问题有对应的回答会被认为是一个优秀的训练数据,一个问题直接回复了不知道或者无法回答,其实没什么信息量,对llm来说是垃圾数据,所以他天然见到的大部分数据就是,你问,我就要回答你,就会编。 第二个是模型本质就是个概率生成器,所以一般情况下,接下来概率最大的那个token,不太会是不知道这种答案。
1 个赞
大模型的输出全都是编的,只是有的会的编的就准,不懂得就瞎编
因为AI不知道它生成的内容是不是编的,它只知道它要生成Token
2 个赞
我觉得你这个解释很完美
1 个赞
不是说他家中文不行吗
2 个赞
gemini的中文还行啊,从刚开始出来我就一直在用。不过翻译水平不如QWEN。
2 个赞
不是万能的。让他画个图都画不好
说没中文字体
其实有个问题,互联网上水帖有点多,真正解决问题的没几个,有些数据就被用来训练ai了
1 个赞
AI聊着聊着,不来句严格参考网络资料/基于某某资料,就开始编,有模有样的,而且你说错他马上编另一个,你说对他马上说是的,你说的没错
是的,我说他不对,他就觉得他确实不对,然后又编一个新的。。。
transformer架构就是如此,吐字机而已,吐出什么看训练的概率
1 个赞