高馬爾
一個信息發佈的網站

AI 有多會一本正經地瞎編?超出你的想象!深度解析大模型的“幻覺”機制

今天小編(袁曼雁)要和大家分享的是AI 有多會一本正經地瞎編?超出你的想象!深度解析大模型的“幻覺”機制,歡迎閱讀~

你是不是也遇到過這樣的情況:問 AI 一個問題,它給了你一個特别詳細、豐富,看上去好有邏輯的答案。但當我們去核實時,卻發現這些信息完全是虛構的?

這就是著名的"AI 幻覺 "現象。

上下滑動查看更多,圖源:河森堡 新浪微博

為什麼會出現 AI 幻覺呢?今天就讓我們一起來揭開這個謎題。

為什麼會出現 AI 幻覺?

AI 幻覺指的是 AI 會生成看似合理但實際确實錯誤的信息,最常見的表現就是會編造一些不存在的事實或者細節。

就像在考試時遇到不會的題目,我們會試圖用已知的知識去推測答案一樣。AI 在遇到信息缺失或不确定的情況時,會基于自己的 " 經驗 "(訓練數據)進行填補和推理。

這不是因為它想要欺騙我們,而是因為它在試圖用自己理解的模式來完成這個任務。

1

基于統計關系的預測

因為 AI(尤其是像 ChatGPT 這樣的語言模型)通過大量的訓練數據學習文字之間的統計關系。它的核心目标是根據上下文預測最可能出現的下一個詞,并不是對問題或内容進行真正的理解。所以 AI 本質上是通過概率最大化來生成内容,而不是通過邏輯推理來生成内容的

簡單來說, AI 就像是一個博覽群書的智者,通過學習海量的文本和資料來獲取知識。但是它并不是真正理解這些知識,而是通過找到文字之間的統計關系和模式來 " 預測 " 下一個最合适的詞。即 AI   是根據之前學到的大量例子,來猜測接下來最有可能出現的詞。

不過有時候,模型也會 " 猜錯 "。如果前面出現一點偏差,後面的内容就會像滾雪球一樣越滾越大。這就是為什麼 AI 有時會從一個小錯誤開始,最後編織出一個完全虛構的故事。

2

訓練數據的局限性

由于 AI 并沒有真實世界的體驗,它的所有 " 認知 " 都來自訓練數據。可是訓練數據不可能包含世界上所有的信息,有時候甚至還會包含錯誤信息。這就像是一個人只能根據自己讀過的書來回答問題,如果書裡有錯誤信息,或者某些領網域的知識缺失,就容易產生錯誤的判斷。

舉個例子:早期 AI 幻覺較大的時候,可能會出現 AI 學過 " 北京是中國的首都 " 和 " 巴黎有埃菲爾鐵塔 " 這兩個知識點。當我們問它 " 北京有什麼著名建築 " 時,它可能會把這些知識錯誤地混合在一起,說 " 北京有埃菲爾鐵塔 "。

3

過拟合問題

因為大模型的訓練參數量非常龐大,大模型會在訓練數據上產生 " 過拟合 " 的問題。即因為記住了太多錯誤或者無關緊要的東西,從而讓   AI 對訓練數據中的噪聲過于敏感,最終導致幻覺產生。

4

有限的上下文視窗

受限于技術原因,雖然現在大模型的上下文視窗越來越大(比如可以處理 64k 或 128k 個 tokens),但它們仍然是在一個有限的範圍内理解文本。這就像是隔着一個小視窗看書,看不到整本書的内容,容易產生理解偏差。

5

生成流暢回答的設計

現在很多大模型被設計成要給出流暢的回答,當它對某個問題不太确定時,與其說 " 我不知道 ",它更傾向于基于已有知識編造看起來合理的答案

上面的種種情況疊加在一起,造成了現在非常嚴重的 AI 幻覺問題。

圖庫版權圖片,轉載使用可能引發版權糾紛

如何才能降低 AI 幻覺?

AI 看起來很方便,但   AI   一本正經的 " 胡說八道 " 有時候真的讓人非常頭疼,給的信息經常需要反復核實,有時反而不如直接上網搜索來得實在。

那麼,如何應對 AI 幻覺呢?我們總結了下面這些方法幫助大家。

優化提問

想要獲得準确答案,提問方式很關鍵。與 AI 交流也需要明确和具體,避免模糊或開放性的問題,提問越具體、清晰,AI 的回答越準确。同時,我們在提問的時候要提供足夠多的上下文或背景信息,這樣也可以減少 AI 胡亂推測的可能性。

總結成提示詞技巧就是下面四種問法:

1. 設定邊界:" 請嚴格限定在 2022 年《自然》期刊發表的研究範圍内 "

示例:" 介紹 ChatGPT 的發展歷程 " → " 請僅基于 OpenAI 官方 2022-2023 年的公開文檔,介紹 ChatGPT 的發展歷程 "

2. 标注不确定:" 對于模糊信息,需要标注‘此處為推測内容’ "

示例:" 分析特斯拉 2025 年的市場份額 " → " 分析特斯拉 2025 年的市場份額,對于非官方數據或預測性内容,請标注 [ 推測内容 ] "

3. 步驟拆解:" 第一步列舉确定的事實依據,第二步展開詳細分析 "

示例:" 評估人工智能對就業的影響 " → " 請分兩步評估 AI 對就業的影響:

1 ) 先列出目前已發生的具體影響案例;

2 ) 基于這些案例進行未來趨勢分析 "。

4. 明确約束:明确告訴 AI 要基于已有事實回答,不要進行推測

示例:" 預測 2024 年房地產市場走勢 " → " 請僅基于 2023 年的實際房地產數據和已出台的相關政策進行分析,不要加入任何推測性内容 "。

分批輸出

因為 AI 内容是根據概率來進行生成的,一次性生成的内容越多,出現 AI 幻覺的概率就越大,我們可以主動限制它的輸出數量。比如:如果我要寫一篇長文章,就會這麼跟 AI 說:" 咱們一段一段來寫,先把開頭寫好。等這部分滿意了,再繼續寫下一段。" 這樣不僅内容更準确,也更容易把控生成内容的質量。

交叉驗證

想要提高 AI 回答的可靠性,還有一個實用的方法是采用 "多模型交叉驗證"。使用的一個 AI 聚合平台:可以讓多個 AI 模型同時回答同一個問題。當遇到需要嚴謹答案的問題時,就會啟動這個功能,讓不同的大模型一起參與讨論,通過對比它們的答案來獲得更全面的認識。

點擊可放大,圖片來源:作者提供

再比如納米 AI 搜索平台的 " 多模型協作 " 功能,它能讓不同的 AI 模型各司其職,形成一個高效的協作團隊。

讓擅長推理的 DeepSeek R1 負責分析規劃,再由通義千問進行糾錯補充,最後交給豆包 AI 來梳理總結。這種 " 專家組 " 式的協作模式,不僅能提升内容的可信度,還能帶來更加全面和深入的見解。

上下滑動查看更多,圖源:作者提供

RAG 技術

AI 是一個聰明但健忘的人,為了讓他表現更靠譜,我們可以給他配一個超級百科全書,他可以随時查閱裡面的内容來回答問題。

這本 " 百科全書 " 就是 RAG 的核心,它讓 AI 在回答問題之前,先從可靠的資料中找到相關信息,再根據這些信息生成答案。這樣一來,AI 就不容易 " 胡說八道 " 了。

目前 RAG 技術多用在醫療、法律、金融等專業領網域,通過構建知識庫來提升回答的準确性。

當然實際使用中像醫療、法律、金融這樣的高風險領網域,AI 生成的内容還是必須要經過專業人士的審查的。

巧用 AI 幻覺

最後再說一個 AI 幻覺的好處。

很多時候 AI 幻覺也是天馬行空的創意火花!就像一個異想天開的藝術家,不受常規思維的束縛,能蹦出令人驚喜的點子。

看看 DeepSeek 就知道了,它确實比 ChatGPT 和 Claude 更容易出現幻覺,但是今年 DeepSeek 能火得如此出圈也離不開其強大的創造能力。

有時候與其把 AI 幻覺當成缺陷,不如把它看作創意的源泉!在寫作、藝術創作或頭腦風暴時,這些 " 跳躍性思維 " 反而可能幫我們打開新世界的大門。

圖庫版權圖片,轉載使用可能引發版權糾紛

AI 幻覺的本質—— AI 在知識的迷霧中,有時會創造出看似真實,實則虛幻的 " 影子 "。但就像任何工具一樣,關鍵在于如何使用。

當我們學會用正确的方式與 AI 對話,善用它的創造力,同時保持獨立思考,AI 就能成為我們得力的助手,而不是一個 " 能言善辯的謊言家 "。

畢竟,在這個 AI 與人類共同進步的時代,重要的不是責備 AI 的不完美,而是學會與之更好地協作。

策劃制作

作者丨田威 AI 工具研究者

審核丨于旸 騰訊玄武實驗室負責人

策劃丨林林

責編丨符思佳、林林

審校丨徐來

相關推薦

1.醫生的這個 " 暗語 " 一定要聽懂!不然很可能會吃大虧……

2."8 只河狸 2 天建好捷克拖了 7 年的水壩 ",這 " 河狸 " 嗎???

3.經常運動和不運動的人,到底有什麼區别?真相讓人吃驚

4.申公 ... 公 ... 豹一家的真身是什麼動物?

5..明明什麼症狀都沒有,怎麼就癌症晚期了?

本文封面圖片及文内圖片來自版權圖庫

轉載使用可能引發版權糾紛

原創圖文轉載請後台回復 " 轉載 "

點亮 " 在看 "

一起漲知識!

關于AI 有多會一本正經地瞎編?超出你的想象!深度解析大模型的“幻覺”機制就分享完了,您有什麼想法可以聯系小編(袁曼雁)。