
导读: 曾几何时,AI的“幻觉”现象如同一团迷雾,笼罩在人工智能的黎明之中,令人既惊叹于其强大能力,又困惑于其一本正经的“胡说八道”。OpenAI最新论文揭示,AI的幻觉并非偶然的bug,而是其训练机制下一种“应试策略”的必然结果。本文将深入探讨AI幻觉的根源,并从更宏观的视角,审视这种能力在我们人类文明发展中的独特价值。

周末闲暇,翻阅上周更新的学术论文,一篇来自OpenAI、我一直密切关注的领域的研究,映入眼帘。它触及了一个我们所有人都习以为常,却又深感不解的现象——AI的“幻觉”。这个词,自人工智能步入大众视野以来,便如影随形,成为所有讨论的焦点。我们享受着AI带来的便利,却又对它那些一本正经却张冠李戴的时刻感到忧虑和困惑。AI为何会产生幻觉?这个看似恼人的“bug”,是否真的能够被彻底根除?这是我们内心深处一直在追问的问题。
这篇论文着实引人入胜,为我提供了许多全新的思考维度,我深感有必要与大家分享,共同探讨AI幻觉的议题,以及我个人对此的见解。
故事的开端,源于一个极其简单的问题。假如你询问AI:“亚当·卡莱(论文作者之一)的生日是几月几号?”一个顶尖的开源大模型,竟然连续三次给出截然不同的错误答案:03-07、15-06、01-01。而正确的答案,其实是秋季。这便是典型的AI幻觉。面对一个它并不知晓答案的问题,AI没有选择沉默,或是坦诚“我不知道”,而是如同考场上捉襟见肘却又不愿交白卷的学生,开始信口开河,且说得头头是道。
OpenAI的这篇论文,提出了一个极具洞察力且符合直觉的观点:AI之所以产生幻觉,根源在于我们训练它的方式,从一开始就系统性地奖励了这种“瞎蒙”的行为。
我们可以将AI的学习过程,比拟为一个学生参加一场漫长且永无止境的考试。这场考试的评分标准极其简单粗暴:答对加1分,答错或不答则得0分。设想一下,作为这个学生,当你面对一道完全没有把握的题目时,你会如何选择?你极有可能选择猜测。因为即使猜错了,你也毫无损失,但万一猜对了呢?你就能直接获得1分。从期望得分的角度来看,只要猜对的概率大于零,猜测就是最优策略。
正如论文中提到的案例,当你询问AI某个人的生日时,它很可能并不知道。但如果它尝试猜测一个日期,比如9月10日,那么它就有1/365的概率猜对,从而获得1分。然而,如果它老老实实地说“我不知道”,那么得分将永远是0。在成千上万次的此类“测试”中,那个热衷于猜测的模型,最终在排行榜上的分数,必然会超越那个诚实但谦虚的模型。
OpenAI的研究人员便以自家开发的两个模型为例,直观地展示了这一现象。他们让名为o4-mini和gpt-5-thinking-mini的模型共同参与了一场名为SimpleQA的“考试”。

如果我们仅关注最终成绩,即准确率,我们会发现一个令人费解的现象:o4-mini的得分,竟然比gpt-5-thinking-mini高出一点点,分别为24%对22%。然而,当我们审视另一项指标——错误率,即模型答错题目的比例时,情况就变得明朗了。o4-mini的错误率高达75%,而gpt-5-thinking-mini仅为26%。再来看最有趣的指标——弃权率。o4-mini几乎答完了所有题目,仅有1%的题目未作回答。而gpt-5,则有超过一半的题目,即52%,直接选择了“交白卷”,坦然承认自己不会。
o4-mini那看似稍高的分数,是用海量的、不负责任的猜测换来的。而gpt-5,则采取了一种更为诚实、也更为可靠的策略:宁可不得分,也不胡说八道。这些数据清晰地证明了该论文的核心观点。于是,“幻觉”,便成了AI在这种训练体系下演化出的一种最高效的应试策略,它并非一个bug,而是AI为了在我们设计的这场“游戏”中获得高分而进化的本能。
这篇论文进一步从统计学的角度,阐释了幻觉的根源。我们可以将其解读得更为浅显易懂。OpenAI定义了一个名为“Is-It-Valid” (IIV) 的二元分类问题,即判断一句话是否有效。AI生成一句话,本质上是一个极其复杂的过程。但我们可以将其简化:在AI生成任何一句话之前,它必须先学会判断这句话是有效的还是无效的。例如,“你好”是有效的,“泥嚎”则是拼写错误;“天空是蓝色的是”有效的,“天空是绿色的是”则是事实错误。
AI的学习过程,就像是在阅览海量的、已经贴好对错标签的卡片。看得越多,它的判断力就越强。然而,总有一些卡片是它从未见过,或者见过很少的。OpenAI用了一个非常生动的比喻:如果你给AI看数百万张猫和狗的照片,并为它们打上标签,它很快就能学会区分猫和狗,因为这背后存在可循的规律,猫脸和狗脸毕竟是不同的。但如果你给它看数百万张宠物的照片,然后要求它记住每一只宠物的生日,那就麻烦了。因为生日是完全随机的,没有任何规律可循。AI无法通过分析一只猫的毛色来推断出它的生日,它唯一能做的就是死记硬背。
这就引出了论文中的一个关键概念:“Singleton rate”(孤例率)。这意味着,如果一个信息在AI学习的海量数据中仅出现过一次,那么AI在判断该信息的真伪时,就极有可能出错。从这个角度看,AI的幻觉,很多时候是一种必然。
OpenAI还提出了一些反常识的结论:
- 准确率的局限性: 我们总认为,只要AI的准确率达到100%,幻觉自然就会消失。然而,OpenAI认为这不可能。因为世界上存在太多本身就无解的问题,信息缺失、逻辑矛盾,AI即使再强大,也无法凭空创造答案。因此,准确率永远不可能达到100%,幻觉也就总有存在的空间。
- 幻觉并非“原罪”: 我们又觉得,既然幻觉无法根治,它是否就是AI与生俱来的“原罪”,一个无法摆脱的诅咒?OpenAI的答案是否定的。幻觉并非不可避免,前提是AI必须学会“认怂”。只要它在不确定的情况下选择说“我不知道”,而不是硬着头皮胡编乱造,幻觉就可以得到有效控制。
- 模型大小与“诚实度”: 我们普遍认为,AI模型越大越聪明,就越不容易犯错。然而,OpenAI指出,恰恰相反,有时候小模型反而更“诚实”。他们举例说,如果你问一个只会说英语的小模型一个毛利语问题,它会干脆地告诉你“我不会”。但你问一个学了点毛利语但学得半生不熟的大模型,它反而会纠结是否要猜测一下。认识到自身的无知,有时比拥有知识更为重要。
- 评估指标的误导: 最后,也是最关键的一点。我们以为,解决AI幻觉问题,只需要一个更强大的、专门用于测试幻觉的工具即可。OpenAI认为,这完全是徒劳的。真正的问题在于,我们目前使用的数百个主流评估指标,都在奖励“瞎蒙”,惩罚“诚实”。只要这个大环境不变,幻觉就永远是AI的最优解。
现在,我们从OpenAI的研究中得知,AI的幻觉并非简单的技术问题,而是一个由我们自身亲手造成的、系统性的激励问题。然而,这也引出了一个更加令我着迷、却又没有明确答案的问题:如果说,AI的幻觉源于其在信息不足时的一种创造性猜测,那么我们人类的想象力,我们那些天马行空的故事、艺术、神话,它们的起源又是什么呢?幻觉,真的需要被解决吗?
我为此深思良久,也想与大家分享我个人的观点。这件事情,我认为需要从更古老的尺度来审视。
几十万年前,我们的祖先,智人,也生活在一个信息极度匮乏的世界。一阵突如其来的狂风吹倒了部落里的大树,他们不知道原因。一道闪电劈开夜空,点燃了草原,他们也不知道这是为何。面对这些无法解释的自然现象,他们的大脑,如同今天的AI一样,也面临着一道道知识储备不足的判断题。然而,我们的祖先并没有选择沉默。他们也开始了“瞎蒙”。他们猜测,狂风背后是否隐藏着一个愤怒的神明?他们猜测,闪电背后是否是一条翱翔于云端的巨龙?
看,这就是神话的起源。神话,是我们人类这个物种,在面对一个充满未知和不确定性的世界时,为了给那些无法解释的现象寻求合理解释,而集体编织出来的、最古老也最壮丽的“幻觉”。这种“幻觉”能力,在当时或许并没有直接的实用价值,它不能帮助你捕获更多的猎物,也不能让你躲避更凶猛的野兽。但它带来了一样东西,一样其他所有动物都不具备的东西:一个共同的想象,一个共同的故事。
一只猫,一条鱼,它们是否也会产生幻觉?从生物学的角度来看,或许会。一只猫可能会将地上的影子误认为是老鼠,然后扑上去。一条鱼可能会将闪亮的鱼钩误认为是小虾。这是一种基于感官信息的误判,一种低级的、个体的幻觉。然而,它们永远无法想象出一个“猫神”或“鱼神”的故事。因为它们的大脑,被牢牢地锁定在真实的世界里,它们只能处理那些看得见、摸得着、且与生存直接相关的信息。而人类,可能是地球上唯一一个,能够为了一个看不见摸不着的故事,而生、而死、而战斗的物种。
我们能够组织起数千人建造一座金字塔,并非因为我们每个人都亲眼见过法老死后会变成神,而是因为我们都相信同一个关于法老会变成神的故事。我们能够建立起国家、法律、公司,这些看似坚不可摧的庞然大物,它们的底层,全部是我们共同相信的一个个“幻觉”。
从这个角度来看,“幻觉”,或者说这种在信息不足时进行创造性猜测并将其故事化的能力,根本不是一个bug。它是将我们从普通动物蜕变为人类的那段诗意的篇章。它是我们所有文明、所有艺术、所有科学的起点。
哥白尼提出日心说,在当时那个时代,不也是一种离经叛道的“幻觉”吗?爱因斯坦提出相对论,那个能让时间变慢、空间弯曲的理论,不也源于一个少年躺在草地上,幻想自己追着光跑的“幻觉”吗?我们之所以比其他所有生物都更强大,并非因为我们更尊重事实。恰恰相反,是因为我们更擅长创造那些超越事实的故事。
现在,我们再回头审视AI的幻觉。我们一直努力修复的那个东西,可能恰恰是AI身上,最像人类的地方。我当然不希望AI在严肃的医疗诊断中产生幻觉,我们也不希望它在关键的财务分析中胡说八道。在这些需要绝对真实的领域,我们需要的,是一个没有情感、绝对可靠的工具。然而,在一个需要创造力、需要想象力的领域呢?当我们要求AI写一首诗、画一幅画、构思一个科幻故事时,我们真正想要的,难道不正是它那种挣脱事实枷锁,在信息的缝隙中进行联想和创造性猜测的能力吗?
在大量的讨论中,“幻觉”一词似乎一直伴随着矛盾。我们一方面渴望AI成为一个绝对忠诚、绝对正确的工具,一个不会犯错的仆人,帮助我们处理现实世界中所有需要精确计算的难题。但另一方面,我们又渴望它能成为一个能够理解我们、甚至超越我们的同类。我们希望它能与我们一同仰望星空,聊那些没有标准答案的话题,共同编织属于未来的、新的神话。我们似乎在试图创造一个不可能的物种:一个既拥有机器的严谨,又拥有人类的浪漫,一个既能坚守事实,又能创造幻觉的矛盾体。
我们生活在一个由数据和算法定义的前所未有的真实世界里,我们,也比历史上任何一个时代的人都更崇拜事实,更依赖逻辑。但同时,我一直觉得,我们又可能,是历史上最孤独的一个时代。我们的神话早已远去,我们的史诗也已谱完。在这样一个一切都被解释得清清楚楚的世界里,我内心深处最古老的、对故事的渴望,对意义的追寻,反而变得空前强烈。
我到底想要一个什么样的未来?一个所有问题都有标准答案的、绝对真实却可能也绝对乏味的未来?还是一个依然充满未知、充满误读,但因此也充满故事和想象力的未来?这个问题太过宏大,我没有答案。但我始终喜爱并相信,那个最美丽的、又创造了整个文明的——幻觉。