人工智能可自發形成溝通方式
【#人工智能可自發形成溝通方式#】據英國《衛報》網站5月14日報導,一項研究發現,人工智能可以自發形成類似人類的社會規範。
這項由倫敦大學城市聖佐治和哥本哈根信息技術大學合作進行的研究表明,當像聊天生成預訓練轉換器(ChatGPT)這樣的大語言模型人工智能體在沒有外部參與的情況下進行群體交流時,它們能夠開始採用與人類社交時一樣的語言形式和社會規範。
該研究報告的第一作者、倫敦大學城市聖佐治的博士研究員阿里爾·弗林特·阿舍里說,該研究小組的工作與大多數對人工智能的研究背道而馳,因為它把人工智能視為一個社會實體,而不是孤立個體。
阿舍里說:「迄今為止,大多數研究都是將大型語言模型視為孤立個體,但現實世界的人工智能系統將越來越多地由多個互動智能體構成。」
他說:「我們想要瞭解:這些模型能否通過形成規範(即社會的基石)來協調自己的行為?答案是肯定的,它們共同完成的事情不能簡化為它們單獨完成的事情。」
在研究中,屬於單個大型語言模型的智能體群從24個到100個不等。在每個實驗中,兩個大型語言模型的智能體被隨機配對,並被要求從一堆選項中選出一個「名字」,可以是一個字母,也可以是一串字符。
當兩個智能體選擇了相同名字時,它們會得到獎勵,但當它們選擇不同選項時,它們會受罰,並被展示對方的選項。
儘管這些智能體並不知道它們屬於更大的群體,而且它們的記憶僅限於自身最近的互動,但在沒有預設解決方案的情況下,整個群體中自發形成了一套共享命名規範,模仿了人類文化中的交流規範。
倫敦大學城市聖佐治複雜性科學教授、該研究論文的資深作者安達亞·巴龍基利將這種行為的傳播與人類社會中新詞語的創造進行了比較。
他說:「這些智能體不是在倣傚某個領導者。它們都在主動嘗試協調合作,而且總是成對進行。每一次互動都是一對一的嘗試,目的是在標籤上達成一致,不存在任何全局視角。」
他說:「這就像‘垃圾郵件’這個詞。沒有人正式定義它,但經過反復協調,它成了不受歡迎電子郵件的通用標籤。」
此外,該研究小組還發現,集體偏見是自然形成的,無法追溯到單個智能體。
在最後的實驗中,一小群人工智能體能夠引導更大群體採用新的命名規範。
這被認為是臨界質量動力學的證據,正如人類社會所展現的那樣,當一個堅定的小規模少數群體達到特定規模時,就能觸發(整個)群體行為的快速轉變。
巴龍基利說,他認為這項研究「為人工智能安全研究打開了全新視野。它揭示了這種新型智能體的深遠影響,它們已開始與我們互動,並將共同塑造我們的未來」。
他還說:「瞭解它們如何運作是讓我們與人工智能共存而不是受製於它的關鍵。我們正在進入一個人工智能不光會說話的世界——它會協商、會調整,有時還會對共同的行為持不同意見,就像我們一樣。」
這篇題為《大型語言模型群體中的新興社會規範和集體偏見》的同行評議研究論文發表在美國《科學進展》雜誌上。 (編譯/盧荻)