高马尔
一个信息发布的网站

AI 有多会一本正经地瞎编?超出你的想象!深度解析大模型的“幻觉”机制

今天小编(袁曼雁)要和大家分享的是AI 有多会一本正经地瞎编?超出你的想象!深度解析大模型的“幻觉”机制,欢迎阅读~

你是不是也遇到过这样的情况:问 AI 一个问题,它给了你一个特别详细、丰富,看上去好有逻辑的答案。但当我们去核实时,却发现这些信息完全是虚构的?

这就是著名的"AI 幻觉 "现象。

上下滑动查看更多,图源:河森堡 新浪微博

为什么会出现 AI 幻觉呢?今天就让我们一起来揭开这个谜题。

为什么会出现 AI 幻觉?

AI 幻觉指的是 AI 会生成看似合理但实际确实错误的信息,最常见的表现就是会编造一些不存在的事实或者细节。

就像在考试时遇到不会的题目,我们会试图用已知的知识去推测答案一样。AI 在遇到信息缺失或不确定的情况时,会基于自己的 " 经验 "(训练数据)进行填补和推理。

这不是因为它想要欺骗我们,而是因为它在试图用自己理解的模式来完成这个任务。

1

基于统计关系的预测

因为 AI(尤其是像 ChatGPT 这样的语言模型)通过大量的训练数据学习文字之间的统计关系。它的核心目标是根据上下文预测最可能出现的下一个词,并不是对问题或内容进行真正的理解。所以 AI 本质上是通过概率最大化来生成内容,而不是通过逻辑推理来生成内容的

简单来说, AI 就像是一个博览群书的智者,通过学习海量的文本和资料来获取知识。但是它并不是真正理解这些知识,而是通过找到文字之间的统计关系和模式来 " 预测 " 下一个最合适的词。即 AI   是根据之前学到的大量例子,来猜测接下来最有可能出现的词。

不过有时候,模型也会 " 猜错 "。如果前面出现一点偏差,后面的内容就会像滚雪球一样越滚越大。这就是为什么 AI 有时会从一个小错误开始,最后编织出一个完全虚构的故事。

2

训练数据的局限性

由于 AI 并没有真实世界的体验,它的所有 " 认知 " 都来自训练数据。可是训练数据不可能包含世界上所有的信息,有时候甚至还会包含错误信息。这就像是一个人只能根据自己读过的书来回答问题,如果书里有错误信息,或者某些领網域的知识缺失,就容易产生错误的判断。

举个例子:早期 AI 幻觉较大的时候,可能会出现 AI 学过 " 北京是中国的首都 " 和 " 巴黎有埃菲尔铁塔 " 这两个知识点。当我们问它 " 北京有什么著名建筑 " 时,它可能会把这些知识错误地混合在一起,说 " 北京有埃菲尔铁塔 "。

3

过拟合问题

因为大模型的训练参数量非常庞大,大模型会在训练数据上产生 " 过拟合 " 的问题。即因为记住了太多错误或者无关紧要的东西,从而让   AI 对训练数据中的噪声过于敏感,最终导致幻觉产生。

4

有限的上下文視窗

受限于技术原因,虽然现在大模型的上下文視窗越来越大(比如可以处理 64k 或 128k 个 tokens),但它们仍然是在一个有限的范围内理解文本。这就像是隔着一个小視窗看书,看不到整本书的内容,容易产生理解偏差。

5

生成流畅回答的设计

现在很多大模型被设计成要给出流畅的回答,当它对某个问题不太确定时,与其说 " 我不知道 ",它更倾向于基于已有知识编造看起来合理的答案

上面的种种情况叠加在一起,造成了现在非常严重的 AI 幻觉问题。

图库版权图片,转载使用可能引发版权纠纷

如何才能降低 AI 幻觉?

AI 看起来很方便,但   AI   一本正经的 " 胡说八道 " 有时候真的让人非常头疼,给的信息经常需要反复核实,有时反而不如直接上网搜索来得实在。

那么,如何应对 AI 幻觉呢?我们总结了下面这些方法帮助大家。

优化提问

想要获得准确答案,提问方式很关键。与 AI 交流也需要明确和具体,避免模糊或开放性的问题,提问越具体、清晰,AI 的回答越准确。同时,我们在提问的时候要提供足够多的上下文或背景信息,这样也可以减少 AI 胡乱推测的可能性。

总结成提示词技巧就是下面四种问法:

1. 设定边界:" 请严格限定在 2022 年《自然》期刊发表的研究范围内 "

示例:" 介绍 ChatGPT 的发展历程 " → " 请仅基于 OpenAI 官方 2022-2023 年的公开文档,介绍 ChatGPT 的发展历程 "

2. 标注不确定:" 对于模糊信息,需要标注‘此处为推测内容’ "

示例:" 分析特斯拉 2025 年的市场份额 " → " 分析特斯拉 2025 年的市场份额,对于非官方数据或预测性内容,请标注 [ 推测内容 ] "

3. 步骤拆解:" 第一步列举确定的事实依据,第二步展开详细分析 "

示例:" 评估人工智能对就业的影响 " → " 请分两步评估 AI 对就业的影响:

1 ) 先列出目前已发生的具体影响案例;

2 ) 基于这些案例进行未来趋势分析 "。

4. 明确约束:明确告诉 AI 要基于已有事实回答,不要进行推测

示例:" 预测 2024 年房地产市场走势 " → " 请仅基于 2023 年的实际房地产数据和已出台的相关政策进行分析,不要加入任何推测性内容 "。

分批输出

因为 AI 内容是根据概率来进行生成的,一次性生成的内容越多,出现 AI 幻觉的概率就越大,我们可以主动限制它的输出数量。比如:如果我要写一篇长文章,就会这么跟 AI 说:" 咱们一段一段来写,先把开头写好。等这部分满意了,再继续写下一段。" 这样不仅内容更准确,也更容易把控生成内容的质量。

交叉验证

想要提高 AI 回答的可靠性,还有一个实用的方法是采用 "多模型交叉验证"。使用的一个 AI 聚合平台:可以让多个 AI 模型同时回答同一个问题。当遇到需要严谨答案的问题时,就会启动这个功能,让不同的大模型一起参与讨论,通过对比它们的答案来获得更全面的认识。

点击可放大,图片来源:作者提供

再比如纳米 AI 搜索平台的 " 多模型协作 " 功能,它能让不同的 AI 模型各司其职,形成一个高效的协作团队。

让擅长推理的 DeepSeek R1 负责分析规划,再由通义千问进行纠错补充,最后交给豆包 AI 来梳理总结。这种 " 专家组 " 式的协作模式,不仅能提升内容的可信度,还能带来更加全面和深入的见解。

上下滑动查看更多,图源:作者提供

RAG 技术

AI 是一个聪明但健忘的人,为了让他表现更靠谱,我们可以给他配一个超级百科全书,他可以随时查阅里面的内容来回答问题。

这本 " 百科全书 " 就是 RAG 的核心,它让 AI 在回答问题之前,先从可靠的资料中找到相关信息,再根据这些信息生成答案。这样一来,AI 就不容易 " 胡说八道 " 了。

目前 RAG 技术多用在医疗、法律、金融等专业领網域,通过构建知识库来提升回答的准确性。

当然实际使用中像医疗、法律、金融这样的高风险领網域,AI 生成的内容还是必须要经过专业人士的审查的。

巧用 AI 幻觉

最后再说一个 AI 幻觉的好处。

很多时候 AI 幻觉也是天马行空的创意火花!就像一个异想天开的艺术家,不受常规思维的束缚,能蹦出令人惊喜的点子。

看看 DeepSeek 就知道了,它确实比 ChatGPT 和 Claude 更容易出现幻觉,但是今年 DeepSeek 能火得如此出圈也离不开其强大的创造能力。

有时候与其把 AI 幻觉当成缺陷,不如把它看作创意的源泉!在写作、艺术创作或头腦风暴时,这些 " 跳跃性思维 " 反而可能帮我们打开新世界的大门。

图库版权图片,转载使用可能引发版权纠纷

AI 幻觉的本质—— AI 在知识的迷雾中,有时会创造出看似真实,实则虚幻的 " 影子 "。但就像任何工具一样,关键在于如何使用。

当我们学会用正确的方式与 AI 对话,善用它的创造力,同时保持独立思考,AI 就能成为我们得力的助手,而不是一个 " 能言善辩的谎言家 "。

毕竟,在这个 AI 与人类共同进步的时代,重要的不是责备 AI 的不完美,而是学会与之更好地协作。

策划制作

作者丨田威 AI 工具研究者

审核丨于旸 腾讯玄武实验室负责人

策划丨林林

责编丨符思佳、林林

审校丨徐来

相关推荐

1.医生的这个 " 暗语 " 一定要听懂!不然很可能会吃大亏……

2."8 只河狸 2 天建好捷克拖了 7 年的水坝 ",这 " 河狸 " 吗???

3.经常运动和不运动的人,到底有什么区别?真相让人吃惊

4.申公 ... 公 ... 豹一家的真身是什么动物?

5..明明什么症状都没有,怎么就癌症晚期了?

本文封面图片及文内图片来自版权图库

转载使用可能引发版权纠纷

原创图文转载请后台回复 " 转载 "

点亮 " 在看 "

一起涨知识!

关于AI 有多会一本正经地瞎编?超出你的想象!深度解析大模型的“幻觉”机制就分享完了,您有什么想法可以联系小编(袁曼雁)。