https://www.facebook.com/permalink.php? ... 7624193641
... AI幻覺是指生成式人工智慧(如 DeepSeek、ChatGPT 等)在輸出內容時,生成了語言上看似合理、實際卻錯誤或虛構的資訊。
這源於大型語言模型(Large Language Model, LLM)的統計生成機制:模型並非理解或驗證現實世界的事實,而是根據訓練語料中的機率分佈,預測「下一個最可能出現的詞」。
由於模型訓練資料是靜態的,且缺乏即時連接至學術資料庫的能力,當它被要求執行任務(例如「列出十篇相關文獻」)時,若缺乏真實樣本可供參考,它便會根據語料自動補完,生成語法正確、結構完整、卻完全虛構的參考文獻。這類幻覺往往具有「高語言流暢性、低事實可靠性」的特徵,使人難以一眼識別真偽。這正是今次論文中虛假引用的根本成因。
AI本身並沒有欺騙意圖,它只是缺乏查證事實的能力


