AI或可精確複製人類行為
【#AI或可精確複製人類行為#】據英國《新科學家》週刊網站11月20日報導,研究人員利用聊天生成預訓練轉換器(ChatGPT)採用的人工智能(AI)模型,對1000多名真人進行模擬實驗,成功地以高精度複製了他們各自獨特的思想與個性。該實驗引發了以這種方式模擬個人可能帶來的倫理方面擔憂。
美國史丹福大學的樸駿升(音)及其同事想用生成式人工智能工具建立個人模型,以此預測政府政策變化帶來的影響。過去一直採用基於規則、過於簡單化的統計模型預測,但效果有限。
樸駿升說:「我們以前其實必須大大簡化人的行為,才能建立這些模型。我們現在有機會創建真正高保真的個人模型。我們可以打造捕捉到大量複雜性和獨特性的真人代理。」
為了打造人工智能生成的代理,研究團隊在美國招募了具有廣泛人口代表性的1052人。每個參與者與語音版GPT-4o進行2小時對談;GPT-4o是驅動ChatGPT的最先進模型版本。該人工智能模型讓參與者講述他們的生活經歷及其對社會問題的看法,按照研究人員給出的基本腳本提問,根據指令聽取實時回答,並根據需要調整其問題。然後,研究人員將每場對談的人工智能生成內容輸入GPT-4o的不同實例,要求模型模仿每個人。
研究團隊廣泛測試了每個人工智能代理,包括長期社會態度調查(被稱為「綜合社會調查」),「五大」人格特徵評估、五種行為經濟博弈以及五種社會科學實驗。那些真人參與者也接受了兩次相同的測試,間隔時間為兩週。
總體而言,人工智能代理嚴格遵循了參與者對測試的回答。真人參與者在兩次測試中沒有給出相同的回答,兩次「綜合社會調查」的回答之間的匹配度大約為81%。相應的,人工智能代理的回答與真人參與者第一次測試的回答相比,原始準確率約為69%;考慮到真人參與者兩次測試的回答也不相同,這說明人工智能代理的準確度實際為85%。其他測試的準確度雖然略低一些,但也差不多。生成式代理在匹配真人個體回答方面超過了基於人口統計、較為簡單的模型,匹配度比後者高出14個百分點。
樸駿升說,自己的「核心動機」是為決策者提供更好的工具,以更細緻的方式、而不是粗線條的人口統計模型,測試其政策建議帶來的影響。雖然有人可能擔心複製人類情感的能力將成為營銷人員的獲利金礦,但是生成式代理及其潛在數據的應用將「嚴格用於學術目的」。
英國索爾科迪大學的李察·惠特爾說:「有效模擬人類行為以測試政策影響,其潛力巨大。對模擬代表組進行競選戰略測試的能力是極其有用的。」他指出,政治家也可以利用這些工具,以比目前使用的焦點小組或民調等方法更迅速且成本效益更高的方式,測試競選口號。
不過,惠特爾告誡說:「人類行為非常複雜而且會視情況而變。模擬組也許非常有用,但是如果情況發生重大變化,人類的回應可能仍是首選。」
英國斯塔科迪郡大學的凱瑟琳·費歷克說,這方面過早依賴人工智能代理可能會帶來問題。她說:「雖然這的確是有趣的研究,我認為它存在一些潛在問題。人工智能代理永遠不會理解任何事情,因為它們無法理解置身群體是什麼感覺。」(編譯/鄭國儀)