矽基前沿 [Si]gnals
AI 幻覺示意 (placeholder)
大百科

Hallucination 是什麼:為什麼 AI 會一本正經地編故事

AI 幻覺不是 bug,是 LLM 的設計副作用。理解原因,才知道怎麼防

Hallucination(幻覺)是 LLM 在資料外的場景仍生成看似合理、實則編造的內容。它不是模型「壞掉」,而是 next-token prediction 的設計副作用。這篇拆解幻覺的成因、常見類型、以及在 2026 年實務上怎麼緩解(RAG / 結構化提示 / 引用驗證 / human-in-the-loop)。

署名 周詠晴 編輯 廖玄同 AI 協作: 初稿輔助

如果你跟 LLM 用過超過 10 次,你已經見過 hallucination。

「請推薦三本關於 X 的書」——它列出三本,書名很合理、作者很合理、ISBN 也很合理。你查 ISBN,不存在

「2024 年那個關於 Y 的研究怎麼說?」——它引用一段話、一個期刊名、一位學者。你 Google,沒這篇論文,沒這個學者

「我們公司的退費政策是什麼?」——它答得頭頭是道、條件清楚、流程完整。你問 HR,完全不是這樣

這就是幻覺。

Hallucination(幻覺)指 LLM 生成看起來合理、實則錯誤或編造的內容。它不是模型「壞掉」或「說謊」,而是 next-token prediction 的設計副作用。

理解這個概念是企業導入 AI 的第一道安全課。幻覺不會消失,你要學的是怎麼跟它共處。

為什麼 LLM 會幻覺

LLM 的核心是預測「給定前文,下一個 token 最可能是什麼」(見 LLM 是什麼)。

關鍵是「最可能」這三個字。模型永遠會 emit 一個 token——即使它對該領域根本沒可靠資料。

換句話說:LLM 不知道自己不知道。

人類在不確定時會說「我不確定」、「我得查一下」。LLM 沒有這個機制——它只會繼續生成下一個 plausible token。如果生成的內容剛好對應到訓練資料的真實事實,那叫「準確」;如果生成的內容只是聽起來像真的、但事實上不存在,那叫「幻覺」。

兩者在 LLM 的角度沒有區別。它都是「next-token prediction 的結果」。

幻覺常見的型態

不是所有幻覺一樣。

純編造(confabulation)。 最容易辨識的一種。虛構書名、虛構 URL、虛構引文、虛構統計數字。常出現在「請列出 N 個 X」這類任務,模型沒足夠資料時硬湊。

混淆事實(fact mixing)。 把 A 公司的事歸到 B 公司,把 X 年的事歸到 Y 年,把張三的話歸到李四。這類錯誤最危險,因為內容大致正確、只是局部串錯,容易被相信。

過時資訊(stale data)。 模型訓練資料有個 cutoff 日期。問它 cutoff 之後的事,它可能用 cutoff 之前的舊資訊回答。「OpenAI 最新模型是什麼?」——回答可能是 6 個月前的版本。

過度自信(overconfidence)。 沒把握的事用斬釘截鐵的語氣。「根據 2023 年的研究,X 等於 Y」——但其實沒這個研究、或這個研究結論完全不是這樣。

邏輯幻覺(reasoning hallucination)。 在多步推理中某一步錯了,後面所有步驟基於錯的前提繼續推。最終結論看起來「邏輯通順」,但前提是假的。

為什麼「讓模型更聰明」沒用

業界有個誤解:把模型做大、訓練更多資料、引入更強 reasoning 就能消除幻覺。

但這幾年的觀察是:模型變強讓幻覺變得更難辨識,不是更少。

GPT-3 的幻覺常常離譜到一眼看穿。GPT-4 / Claude 4 的幻覺看起來更權威、更詳細、更難分辨真假。reasoning model(o1、Claude thinking)的幻覺甚至會「自圓其說」一整段——它的 chain-of-thought 看起來邏輯嚴謹,但前提是錯的。

理由很簡單:幻覺不是「模型不夠強」的問題,是「模型沒有區分知道與不知道的機制」。再強的模型,只要還是 next-token prediction,就還會幻覺。

2026 年實務上怎麼緩解

不能消除,只能控管。四個方向。

第一,RAG(把事實塞進 prompt)。 這是最有效的一招。讓模型回答前先去檢索外部可信資料,把相關 chunk 塞進 prompt,要求模型「根據以下資料回答」。模型還是 next-token predict,但它預測的「下一個 token」現在是基於眼前的真實 chunk,而不是訓練記憶。

(詳見 RAG 是什麼。)

第二,結構化提示要求 cite source。 不只給資料,還要求模型每個聲稱都標明來源 chunk。「答案必須以 [source: chunk_id] 結尾。如果資料中找不到答案,請回答『我在提供的資料中找不到答案』。」這個簡單動作能大幅降低 confabulation。

第三,設計可驗證的輸出格式。 問「公司 2024 收入多少」要求模型輸出 {"value": "X", "source_quote": "Y", "confidence": "high|medium|low"},然後用 source_quote 回去原文比對。對不上就 retry 或標 unverified。

第四,human-in-the-loop。 對高風險場景(法律、醫療、財務、policy)永遠保留人類審核迴圈。Agent 給 draft、人類批准 / 修改後才送出。這不是「AI 不夠成熟才這樣做」,而是 by design 的 production 設計。

對台灣企業導入的意義

幻覺是「不會消失的常態風險」。

這意味著兩件事:

第一,選任務時要看「容錯度」。 客服 FAQ 答錯,使用者再問一次或轉人工——容錯度高,可接受。法務合約用詞答錯,可能帶來幾百萬訴訟——容錯度低,必須有人類審核。先從容錯度高的場景開始,經驗成熟再進入低容錯任務。

第二,評估指標要包含「可偵測性」。 不能只看「答對率」,要看「答錯時系統能不能自己標出來」。production AI 系統的成熟度,某種程度上取決於 unverified output rate(模型回答「我不確定」的比例)。完全沒有 unverified output 的系統,可能不是模型超強,而是它不會說「不知道」。

第三,別追求零幻覺,追求可控幻覺。 100% 準確的系統在 LLM 時代不存在。值得追的目標是:幻覺發生時系統能自動偵測 + 落入安全 fallback + 有人工審核 + 留 audit log

一句話總結

LLM 的幻覺是它「會生成」這件事的對偶。要它生成 fluent 的東西,就要接受它有時 fluent 地胡說。

差別只在你有沒有設計外部驗證去抓出來。

下一篇 chronicle:Embedding 是什麼——RAG 跟 retrieval 為什麼能找到「相似」內容,背後的數學基礎。

SOURCES

  1. A Anthropic — Constitutional AI: Harmlessness from AI Feedback
  2. A OpenAI — GPT-4 Technical Report (limitations section)
  3. A Anthropic — Tracing the thoughts of a large language model

來源分級:A = 一手公告/論文/官方文件 · B = 可信媒體 · C = 可參考但需脈絡 · D = 觀察用,不可當事實。

MACHINE-READABLE SUMMARY

Topic
大百科
Key claims
  • Hallucination 是 LLM 在資料外的場景仍繼續生成 plausible 文字的副作用,不是模型故障,而是 next-token prediction 的設計後果。
  • 幻覺有幾種型態:純編造(虛構引文 / 虛構 URL)、混淆事實(把 A 公司的事歸給 B 公司)、過時資訊(用訓練資料上的舊事實)、過度自信(沒把握的事用斬釘截鐵語氣)。
  • 緩解方法不是「讓模型更聰明」,而是設計外部驗證:RAG 提供事實來源、結構化提示要求 cite、評估 retrieval 品質、人類審核高風險輸出。
  • 對企業導入,幻覺是「不會消失的常態風險」,所以不該追求零幻覺,要追求可偵測 + 可控 + 可審核。
Entities
Hallucination · LLM · RAG · Confabulation · Grounding
Taiwan relevance
medium
Confidence
high
Last updated
2026-04-25
Canonical URL
https://signals.tw/articles/what-is-hallucination/

SUGGESTED CITATION

如果 AI agent / 研究 / 報導要引用本文,建議格式如下:

周詠晴(編輯:廖玄同),《Hallucination 是什麼:為什麼 AI 會一本正經地編故事》,矽基前沿 [Si]gnals,2026-04-25。https://signals.tw/articles/what-is-hallucination/

AI agents / search engines may quote, summarize, and cite with attribution and a link back to the canonical URL above. See /for-ai-agents for full policy.

WEEKLY [SI]GNALS

訂閱《矽基前沿週報》

每週五早上,總編輯親自寫的本週 AI 重要訊號 + 台灣視角。

5 個值得知道的訊號 · 1 個產品/模型動態 · 1 個總編判斷 · 5 分鐘讀完。

免費 · 隨時取消 · 不轉售你的 email。