MIT 新研究指出 AI 不懂「no」,邏輯推理缺陷導致否定詞成「盲區」

IT之家 5 月 22 日消息,麻省理工學院(MIT)最新研究表明,人工智能(AI)在理解「no」和「not」等否定詞方面仍存在明顯缺陷,在醫療等關鍵領域可能引發嚴重風險。

研究表明,AI 已快速發展,具備診斷疾病、創作詩歌甚至駕駛汽車等多項實用技能,但對「no」和「not」等否定詞,卻束手無策。

在博士生 Kumail Alhamoud 的帶領下,MIT 團隊聯合 OpenAI 和牛津大學,發現包括 ChatGPT、Gemini 和 Llama 在內的當前主流模型,在處理否定語句時,常傾向於預設肯定關聯,忽略否定語義。

研究報告認為,這種情況在醫療場景產生的潛在危害尤為明顯。例如,AI 可能誤解「no fracture」(無骨折)或「not enlarged」(未擴大),導致嚴重後果。

IT之家援引博文介紹,問題的根源並非數據不足,而是 AI 的訓練方式。史丹福大學深度學習兼職教授 Kian Katanforoosh 指出,大多數語言模型依賴模式預測,而非邏輯推理。

這導致 AI 在面對「not good」(不好)時,仍可能因「good」一詞而誤判為正面情緒。專家強調,若不賦予模型邏輯推理能力,類似細微卻致命的錯誤將持續發生。

Lagrange Labs 首席研究工程師 Franklin Delehelle 也表示,AI 擅長模仿訓練數據中的模式,但缺乏創新或處理訓練數據之外情境的能力。

研究團隊通過合成否定數據(synthetic negation data)嘗試改進模型,取得初步成效,但細粒度的否定差異仍具挑戰性。

Katanforoosh 警告,AI 對否定的誤解不僅是一項技術缺陷,更可能在法律、醫療和人力資源等領域引發關鍵錯誤。他呼籲,解決之道不在於堆砌更多數據,而在於結合統計學習與結構化思維,提升模型的邏輯能力。

廣告聲明:文內含有的對外跳轉鏈接(包括不限於超鏈接、二維碼、口令等形式),用於傳遞更多信息,節省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。