Science最新封面:陰謀論的「兔子洞」,被AI大模型粉碎了

「陰謀論的兔子洞,一旦掉進便很難再出來?」

在信息時代,毫無根據的陰謀論如同病毒般在全球範圍內傳播,對社會信任、科學普及以及個人心理健康造成了嚴重危害。數據顯示,美國有超過 50% 的人口相信某種形式的陰謀論。

儘管學者們試圖通過揭露邏輯謬誤和普及科學知識等方式揭穿陰謀論,但這些干預措施缺乏互動性和針對性,大多無效。

如今,人工智能(AI)在破除陰謀論方面取得了新突破,開始大展拳腳——

由 AI 驅動的聊天機器人可以將陰謀論信眾(即使是那些最頑固的人)的錯誤信念平均減少 20%,且效果至少可以持續 2 個月,並在各種不相關的陰謀論以及不同的人口統計類別中都有效。

這一成果來自美國麻省理工學院和康奈爾大學聯合研究團隊,他們通過提出一種利用 AI 聊天機器人來對抗虛假信息的新方法,試圖打破 「陰謀論信仰根深蒂固且無法改變」 這一觀念。

他們探討了 GPT-4 Turbo 等大語言模型(LLMs)是否能利用其強大的信息獲取能力,並通過使用定製的對話反駁,來直接回應陰謀論信眾提出的具體證據,從而有效地揭穿陰謀論。

研究結果表明,LLMs 能夠應對大量虛假信息的「攻擊」,並提供大量反證據,相較於人類難以處理的信息洪流,LLMs 或許可以無限期針對錯誤信息生成反駁。

相關研究論文以 「Durably Reducing Conspiracy Beliefs Through Dialogues with AI」 為題,以封面文章的形式發表 在科學期刊 Science 上。

在一篇相關的賽前分析性(perspective)文章中,Bence Bago 和 Jean-François Bonnefon 寫道,「無論好壞,AI 都將深刻改變我們的文化。這項研究展示了生成式 AI 說服能力的潛在積極應用。」

AI 成功粉碎陰謀論

在域奇百科上,有關陰謀論(Conspiracy theory)的解釋是,「在其他解釋更有可能的情況下,將事件或現實情況解釋成邪惡而又強力的集團在背後密謀的理論」。

這些理論一般由於缺乏更多可靠的證據而不可證偽,並且在邏輯上可能是自洽的,因此可能有相當多的信眾。

信眾的陰謀論信念的形成受到多種心理機制的影響,儘管其荒謬性非常明顯,但出於對複雜世界的簡單化需求,以及對某些事件的不確定性的反應,想要說服他們基於事實放棄毫無根據的信仰,而非從根本上改變他們的潛在心理和身份承諾,幾乎不太可能。

為此,研究團隊利用 LLMs 可以訪問海量信息、與用戶進行實時個性化交互的特點,探討了是否可以用足夠令人信服的證據來說服人們走出陰謀的「兔子洞」。

他們首先提出假設,基於事實、糾正性信息的干預措施可能看起來無效,僅僅是因為它們缺乏足夠的深度和個性化。他們基於 GPT-4 Turbo 設計了一系列實驗,招募了 2190 名陰謀論信眾作為參與者,測試 LLMs 是否能通過個性化對話有效打擊陰謀論。

圖|人類參與者與 LLMs 的對話設計和流程。(來源:該論文)圖|人類參與者與 LLMs 的對話設計和流程。(來源:該論文)

首先,研究團隊選擇了 774 名參與者,在讓他們描述自己所信奉的陰謀論和理由後,將他們分為干預組和對照組,分別與 LLMs 進行對話。

干預組與 LLMs 進行對話時,會進行多次個性化互動,分享他們的觀點和所謂的「證據」,LLMs 則根據這些證據提供有針對性的反駁;而對照組的參與者與 LLMs 系統則就陰謀論無關的話題展開對話。

圖|與 LLMs 對話可以持久地降低陰謀論信念,即使是在堅定的信眾中。(左)按研究 1 的條件(紅色:LLMs 試圖反駁陰謀論;藍色:與 LLMs 討論無關話題)和時間點劃分的人類參與者陰謀論的平均信念。(來源:該論文)

結果顯示,即使是對陰謀論深信不疑的參與者,通過 LLMs 的推理和證據也願意改變信念,這進一步強調了理性思考在修正錯誤信念中的作用;與 LLMs 對話不僅能影響具體的陰謀論,還能對其他不相關的陰謀理論產生額外效應。

而且,LLMs 反駁陰謀論的準確性極高,經過專業事實核查員評估,99.2% 的反駁內容被認為是真實的,只有 0.8% 具有誤導性,且沒有任何虛假信息或明顯的偏見。

此外,通過不斷地修正問卷措辭,研究團隊在兩輪實驗中驗證了這一結果的魯棒性。

該研究的創新之處在於:

實時交互:與傳統的靜態信息不同,這一研究利用 LLMs 設計實時對話實驗,個性化地反駁參與者提出的陰謀論信念,這種互動方式能夠及時回應人類參與者的疑問和反駁,提高幹預的有效性;

個性化對話:LLMs 根據參與者的具體信念生成定製化的反駁內容,使得干預更加有針對性和說服力;

直接反駁:LLMs 不僅提供事實信息,還會針對參與者引用的虛假證據立即提供真實數據並解釋其來源和可靠性。

然而,必須警惕的是,LLMs 可能會被用於推廣虛假信念,因此需要負責任的使用和適當的限制

當然,這一研究也具有一定的局限性。例如,研究樣本主要來自美國在線參與者,未來應測試其他文化和背景的陰謀論信眾。

而且,這一研究只使用了 GPT-4 Turbo 模型,尚不清楚其他模型的表現如何。

再者,儘管 LLMs 在改變信仰方面表現出色,但具體的認知機制仍不明確,未來仍需進一步探討 LLMs 如何通過對話影響信念的變化。

科學事實是最有力的反證據

此外,世界經濟論壇在《2024年全球風險報告》中,將 AI 放大虛假信息列為全球最嚴重風險之一。在此情況下,AI 的潛在積極影響顯得尤為重要。

以上結果表明,LLMs 等 AI 模型不僅能夠有效地減少人們對特定陰謀論的信念,還具有改變深層次信念的巨大潛力。

然而,正如 Bence Bago 等人在賽前分析性文章中指出,這一 AI 對話方法可能只適用於經過充分論述的陰謀信仰,對於沒有合理依據的錯誤信仰,AI 的有效性可能會有所下降

他們進一步指出,AI 對話干預措施的可擴展性是一種理想狀態,它不僅能夠適用於陰謀論,還涵蓋偽科學、健康神話、氣候懷疑主義等領域。然而 ,這些類型的錯誤信念是否與陰謀論具有相同的糾正難度,仍有待進一步研究。

他們建議,未來的研究應探討這種 AI 對話需要持續多久、多久進行一次才能確保其有效性。

此外,陰謀論信眾可能不會信任任何科學機構,如何說服他們與 AI 進行互動仍是一個巨大挑戰

從另一角度來看,一種個性化方法或許可以發揮作用,由於陰謀論信眾的親友往往急於粉碎錯誤信仰,或許可以通過鼓勵親友來引導信眾參與和 AI 的對話。

Science 雜誌主編 H. Holden Thorp 在一篇 focus 文章中指出:「LLMs 可能是對抗陰謀信仰的有效工具,這可能看起來有點諷刺,因為 LLM 以編造虛假事實而聞名。但在與陰謀論信眾的交談中,它們卻能有效地減少信念。」

該研究論文的作者之一 David Rand 也表示:「我們的證據表明,真正起作用的確實是反證據和非陰謀解釋。」

Thorp 進一步提出了一個問題:「這是否與 LLMs 的中立性、缺少人類對話中的情緒化反應有關?但目前的研究尚未給出有力的證據來支持這一觀點。」

這些結果表明,當大量反證據變得至關重要時,減少科學錯誤信息的努力可能不應過度強調信息的傳遞者,而應聚焦於提供足夠的對立證據。

H. Holden Thorp 談道:令人困惑的是,儘管陰謀論盛行,但公眾對科學家的信任度仍然很高。也許,正是這種對科學家的堅定信任,使得 LLMs 在提供反證據時如此有效。

儘管機器可能比人類更擅長反駁錯誤信息,但最終讓人們信服的依然是科學事實。因此,科學家們有責任證明 AI 的未來潛力。

本文來自微信公眾號「學術頭條」(ID:SciTouTiao),作者:田小婷,編審:學術君,36氪經授權發佈。