人工智能為何會產生幻覺(嘮“科”)

在科幻電影中,人工智能常被塑造成全知全能的“超級大腦”,但現實中,AI卻時常表現為“自信的謊言家”。比如,請AI描述“關公戰秦瓊”,它不僅能“敘述”虛構的故事情節,還會“猜測”用戶喜好,煞有介事地編造不存在的文獻檔案。這種現象被稱為“AI幻覺”,已經成為困擾許多人工智能企業和使用者的現實難題。
AI為什麼會一本正經地胡說八道?根源在於其思維方式與人類存在本質不同。今天人們日常使用和接觸最多的AI大模型本質上是一個龐大的語言概率預測和生成模型。它通過分析互聯網上數以萬億計的文本,學習詞語之間的關聯規律,再像玩猜詞游戲一樣,逐字逐句生成看似合理的回答。這種機制使AI擅於模仿人類的語言風格,但有時缺乏辨別真偽的能力。
AI幻覺的產生與大模型訓練的過程密不可分。AI的知識體系基本來源於訓練時“吞下”的數據源。來自互聯網的各類信息魚龍混雜,其中不乏虛假信息、虛構故事和偏見性觀點。這些信息一旦成為AI訓練的數據源,就會出現數據源污染。當某個領域專業數據不足時,AI便可能通過模糊性的統計規律來“填補空白”。比如,將科幻小說中的“黑科技”描述為真實存在的技術。在AI被越來越多地用於信息生產的背景下,AI生成的海量虛構內容和錯誤信息正在進入訓練下一代AI的內容池,這種“套娃”生態將進一步加劇AI幻覺的產生。
在大模型訓練過程中,為了使AI生成滿足用戶需求的內容,訓練者會設置一定的獎勵機制——對於數學題等需要邏輯推理的問題,往往通過確認答案的正確與否給予獎勵﹔對於寫作等開放式命題,則需要判斷其生成的內容是否符合人類寫作習慣。為了訓練效率,這種判斷更多關注AI語言的邏輯性和內容格式等指標,卻忽略了事實的核查。
此外,訓練過程的缺陷也會導致AI存在“討好”用戶的傾向,明知道答案不符合事實,也願意遵照指令生成迎合用戶的內容,並編造一些虛假的例証或看似科學的術語來支撐自己的“假說”。這種“角色扮演式”的表達讓許多普通用戶難以分辨AI幻覺。上海交通大學媒體與傳播學院進行的一項全國抽樣調查顯示,約七成受訪者對大模型生成虛假或錯誤信息的風險缺乏清晰認知。
如何破解AI幻覺?開發者嘗試通過技術手段為AI“糾偏”。比如“檢索增強生成”技術,這意味著AI在回答前需要從最新的數據庫檢索相關信息,降低“信口開河”概率﹔一些模型被要求在不確定答案時主動承認“不知道”,而非強行編造答案。不過,由於目前的AI無法像人類那樣理解語言背后的真實世界,因此這些方法難以從根本上解決AI幻覺問題。
應對AI幻覺,不僅需要技術規制,也需要從公民AI素養普及、平台責任、公共傳播等維度構建系統性的“幻覺免疫力”。AI素養不僅包含使用AI的基本技能,更重要的是對AI幻覺要有基本的認知能力。明確技術平台的責任邊界同樣重要,AI產品在設計時就應嵌入風險提示機制,自動標記“可能存在事實性錯誤”等警示內容,並提供方便用戶進行事實核查和交叉驗証的功能。媒體可以通過定期發布AI偽造事實的典型案例,進一步培養公眾的識別能力。通過多方聯手,智能時代的認知迷霧才能被真正破除。
(作者為上海交通大學媒體與傳播學院特聘教授,本報記者黃曉慧採訪整理)
《 人民日報 》( 2025年06月21日 06 版)

分享讓更多人看到
- 評論
- 關注