“沒有人工智能”:美國知名科學家呼籲停止神化AI,實現數據尊嚴

【編者按】近年,美國計算機科學家、視覺藝術家、計算機哲學作家及未來學家杰倫·拉尼爾(Jaron Lanier)與微軟新英格蘭研究院的經濟學家格倫·魏爾(Glen Weyl)提出了“數據尊嚴”概念,強調個人有權控製和管理自己的數據,以確保數據的安全性、私密性,並保護其免受濫用或未經授權的訪問。

4月20日,拉尼爾在《紐約客》發表標題為“沒有人工智能(There Is No AI)”的文章,提出應停止對人工智能的神化,而將其作為一種創新的社會協作形式來看待。他反對最近呼籲停止訓練更高級人工智能的聯署信,並再次提出“數據尊嚴”概念:結束人工智能黑箱,記錄比特的來源,“人們可以為他們創造的東西獲得報酬,即使這些東西是通過大模型過濾和重新組合的”,“當一個大模型提供有價值的輸出時,數據尊嚴的方法將追蹤最獨特和有影響力的貢獻者。”

拉尼爾認為,每一個新的人工智能或機器人應用的成功引入,都可能涉及一種新的創造性工作的開始。無論大小,這可以幫助緩和向整合了大模型的經濟的過渡。

杰倫·拉尼爾被認為是虛擬現實領域的開創者,2014年,他被Prospect雜誌評為世界前50名思想家之一。2018年,他被《連線》評為過去25年技術史上最具影響力的25人之一。以下為《紐約客》上述文章的翻譯,為方便閱讀和理解已做少量刪減。

杰倫·拉尼爾1985年離開雅達利公司,成立了第一家銷售VR眼鏡和有線手套的公司VPL Research。2006年,他開始在微軟工作,從2009年起作為跨學科科學家在微軟研究院工作。

作為一名計算機科學家,我不喜歡“人工智能”這個詞。事實上,我認為它具有誤導性——也許甚至有點危險。每個人都已經在使用這個詞,而現在爭論這個問題可能顯得有點晚。但我們正處於一個新技術時代的開端——誤解很容易導致誤導。

“人工智能”這個術語有著悠久的曆史——它是在1950年代計算機早期時代被創造出來的。更近的時間里,計算機科學家隨著《終結者》和《黑客帝國》等電影、《星際迷航:下一代》中Data指揮官這樣的人物成長起來。這些文化試金石已經成為科技文化中一個近乎宗教的神話。計算機科學家渴望創造人工智能並實現一個長期的夢想,是很自然的。

但令人震驚的是,許多追求人工智能夢想的人也擔心,這可能意味著人類的末日。人們普遍認為,即使是處於當今工作中心的科學家也認為,人工智能研究人員正在做的事可能會導致我們這個物種毀滅,或者至少會對人類造成巨大傷害,而且會很快發生。在最近的民意調查中,有一半的人工智能科學家同意,人類至少有10%的可能性會被人工智能所毀滅。即使我的同行、經營OpenAI的薩姆-奧特曼(Sam Altman)也發表了類似的評論。走進任何一家矽谷的咖啡館,你都能聽到同樣的爭論:一個人說,新的代碼只是代碼,一切都在人的掌控中,但另一個人認為,任何持這種觀點的人只是沒有理解新技術的深刻性而已。這些爭論並不完全是理性的:當我要求感到最害怕的科學家朋友說出人工智能末日可能發生的情況時,他們說:“加速的進步將從我們身邊飛過,我們將無法想像正在發生的事。”

我不同意這種說話方式。我的許多朋友和同行對最新的大模型的體驗印象深刻,比如GPT-4,而且像守夜一樣等待更深層次的智能出現。我的立場不是說他們錯了,而是說我們不能確定;我們保留以不同方式對軟件進行分類的選擇。

最務實的立場是將人工智能視為一種工具,而不是一種生物。我的態度並沒有消除危險的可能性:無論怎麼想,我們仍然可能以傷害我們甚至導致我們滅絕的方式,糟糕地設計和操作新技術。將技術神化更可能使我們無法很好地操作它,這種思維限制了我們的想像力,將其捆綁在昨天的夢想中。我們可以在沒有人工智能這種東西的假設下更好地工作,我們越早理解這一點,就可以越早開始智能地管理新技術。

如果新技術不是真正的人工智能,那麼它是什麼?在我看來,理解我們今天正在建造的東西的最準確方式,是將其作為一種創新的社會協作形式。

像OpenAI的GPT-4這樣的程序,可以按順序寫出句子,就像維基百科的一個版本,包括更多數據,用統計學的方法混在一起。按順序創建圖片的程序就像在線圖片搜索的一個版本,但有一個系統來組合圖片。在這兩種情況下,都是由人來撰寫文本和提供圖片的。這些新的程序將人類的工作以人類大腦的方式完成。創新之處在於,混搭過程變得有指導性和約束性,因此,結果是可用的,而且往往是引人注目的。這是一項重要的成就,值得慶祝——但它可以被認為是照亮了人類創造物之間曾被隱藏的一致性,而不是發明了一種新的思想。

就我所知,我的觀點是在讚美技術。畢竟,除了社會協作,文明是什麼?把人工智能看作是一種合作的方式,而不是一種創造獨立、智能生物的技術,可能會使它不那麼神秘,不像HAL 9000(《2001:漫遊太空》里的機器人)或Data指揮官那樣。但這是好事,因為神秘感只會使管理不善的可能性變大。

很容易將智能歸為新的系統,它們具有我們通常不會與計算機技術聯繫到一起的靈活性和不可預測性。但這種靈活性產生於簡單的數學。像GPT-4這樣的大型語言模型,包含了程序處理過的大量文本中特定詞彙如何重合的累積記錄。這個龐大的表格使系統內在地接近許多語法模式,以及所謂的作者風格等各個方面。當你輸入一個由某些詞按一定順序組成的查詢時,你的輸入會與模型中的內容相關聯。由於關聯數十億條目的複雜性,每次的結果都可能有些不同。

這個過程的非重複性可以使它感覺很生動。而且在某種意義上,它可以使新系統更加以人為中心。當你用人工智能工具合成一個新圖像時,你可能會得到一堆類似的選項,然後不得不從中選擇;如果你是一個使用LLM(大型語言模型)作弊的學生,你可能會閱讀由模型生成的選項並選擇一個。一個產生非重複內容的技術要求有一點人的選擇。

我喜歡的人工智能的許多用途,都是計算機不那麼僵硬時給予我們的優勢。數字的東西有一種脆性,迫使人們順著它,而不是先評估一下。順應數字設計的需要,創造了一種要求人類順從的期望。人工智能的一個積極方面是,如果我們能很好地利用它,可能意味著這種折磨會結束。我們現在可以想像,一個網站為色盲重新製定自己的方案,或者一個網站根據一個人的特殊認知能力和風格來定製自己的方案。像我這樣的人文主義者希望人們有更多的控製權,而不是被技術過度影響或引導。靈活性可以讓我們重新獲得一些代理權。

然而,儘管有這些可能的好處,擔心新技術會以我們不喜歡或不理解的方式驅趕我們,也是非常合理的。最近,我的一些朋友散發了一份請願書,要求暫停最雄心勃勃的人工智能開發。他們的想法是,在暫停期間,我們將研究政策。請願書得到了我們圈子中一些人的簽名,但其他人沒簽。我發現這個概念太模糊了——什麼程度的進展意味著暫停可以結束?每週,我都會收到模糊不清的新任務聲明,這些組織都在尋求啟動製定人工智能政策的進程。

這些努力的初衷是好的,但在我看來是沒有希望的。多年來,我一直從事歐盟隱私政策工作,我逐漸意識到,我們不知道什麼是隱私。這是一個我們每天都在使用的術語,它在上下文中是有意義的,但我們不能很好地把它確定下來,以便歸納。我們對隱私最接近的定義可能是“獨處的權利”,但在我們不斷依賴數字服務的時代,這似乎很古怪。在人工智能的背景下,“不被計算機操縱的權利”似乎肯定是正確的,但並沒有完全說出我們想要的一切。

AI政策對話被“一致”(AI“想要”的東西與人類想要的東西一致嗎?)、“安全”(我們能預見護欄,阻止壞的AI嗎?)、“公平”(我們能阻止一個程序可能對某些人不友好嗎?)這樣的術語統治。通過追求這些想法當然圈子裡已經獲得了很多好處,但這並沒有消除我們的恐懼。

最近,我給同行們打電話,問他們是否有什麼能達成一致的東西。我發現,有一個達成一致的基礎。我們似乎都同意深渡假象——虛假但看起來很真實的圖像、視頻等,應該由創造者標明。來自虛擬人的通信,以及旨在操縱人類思維或行動的自動化互動,也應該被貼上標籤。人們應該瞭解他們所看到的東西,並且應該有合理的選擇作為回報。

如何才能做到這一切呢?我發現,人們幾乎一致認為,目前人工智能工具的黑箱性質必須結束。這些系統必須變得更加透明。我們需要更好地說出系統內發生了什麼以及為什麼。這並不容易。問題是,我們正在談論的大模型人工智能系統並不是由明確的想法構成的。系統“想要什麼”沒有明確的表述,它在做一件特定的事情時沒有標籤,比如操縱一個人。只有一個巨大的果凍海洋——一個龐大的數學混合體。一個作家權利團體提議,當GPT等工具被用於劇本創作時,真正的人類作者應得到全額報酬,畢竟,系統是在借鑒真實人物的劇本。但是,當我們使用人工智能來製作電影片段,甚至可能是整部電影時,不一定會有一個編劇階段。一部電影被製作出來,可能看起來有劇本、配樂等,但它將作為一個整體被計算出來。試圖通過讓系統吐出腳本、草圖或意圖等不必要的項目來打開黑匣子,將涉及建立另一個黑匣子來解釋第一個黑匣子——一個無限的倒退。

同時,也不是說大模型內部一定是一個人跡罕至的荒野。在過去的某個時刻,一個真實的人創造了一幅插圖,作為數據輸入到模型中,再加上其他人的貢獻,這就變成了一幅新鮮的圖像。大模型人工智能是由人組成的,而打開黑盒子的方法就是揭示它們。

我參與提出的一個概念,通常被稱為“數據尊嚴”。早在大模型“人工智能”興起之前,它就出現了,即人們免費提供他們的數據以換取免費服務,如互聯網搜索或社交網絡。這種熟悉的安排被證明有黑暗的一面:由於“網絡效應”,少數平台接管了,淘汰了較小的參與者,如地方報紙。更糟糕的是,由於直接的在線體驗是免費的,剩下的唯一生意就是兜售影響力。用戶體驗到的似乎是一個集體主義的天堂,但他們卻被隱秘的、令人上癮的算法盯上,使人們變得虛榮、煩躁和偏執。

在一個有數據尊嚴的世界里,數字的東西通常會與那些希望因製造它而聞名的人聯繫起來。在這個想法的某些版本中,人們可以為他們創造的東西獲得報酬,即使這些東西是通過大模型過濾和重新組合的,而技術中心將因促進人們想要做的事而賺錢。有些人對網上資本主義的想法感到恐懼,但這將是一個更誠實的資本主義。人們熟悉的“免費”安排已經是一場災難。

科技界擔心人工智能可能成為生存威脅的原因之一是,它可能被用來玩弄人類,就像前一波數字技術那樣。考慮到這些新系統的力量和潛在影響,擔心可能滅絕也不是沒有道理的。由於這種危險已得到了廣泛的認識,大模型人工智能的到來可能是一個為改善科技行業而進行改革的機會。

落實數據尊嚴將需要技術研究和政策創新。在這個意義上,作為一個科學家,這個主題讓我感到興奮。打開黑匣子只會讓模型更有趣。而且它可能會幫助我們更多地瞭解語言,這是真正令人印象深刻的人類發明,也是我們在這幾十萬年後仍在探索的發明。

數據尊嚴能否解決人們對人工智能經常表達的經濟憂慮?主要的擔憂是,工人會被貶低或取代。在公開場合,技術人員有時候會說,在未來幾年,從事人工智能工作的人將會有更高的生產力,並會在一個更有生產力的經濟中找到新的工作類型。(例如,可能成為人工智能程序的提示工程師——一些與人工智能合作或控製人工智能的人)然而,在私下裡,同樣的人經常會說,“不,人工智能將超越這種合作的想法”。今天的會計師、放射科醫生、卡車司機、作家、電影導演或音樂家再也賺不到錢。

當一個大模型提供有價值的輸出時,數據尊嚴的方法將追蹤最獨特和有影響力的貢獻者。例如,如果你要求一個模型製作一部動畫電影:我的孩子們在油彩世界中冒險,有會說話的貓。那麼起關鍵作用的油畫家、貓的肖像畫家、配音演員和作家——或者他們的遺產——可能被計算為對新創作有獨特的重要性。他們將得到認可和激勵,甚至可能得到報酬。

起初,數據尊嚴可能只關注在特定情況下出現的少數特殊貢獻者。不過,隨著時間的推移,更多人可能會被包括進來,因為中間的權利組織——工會、行會、專業團體等開始發揮作用了。數據尊嚴圈子的人們有時稱這些團體為個人數據的調解人(MIDs)或數據信託。人們需要集體談判的力量,以便在網絡世界中擁有價值——特別是當他們可能在巨大的人工智能模型中迷失時。當人們在一個群體中分擔責任時,他們會自我監督,減少政府和公司審查或控製的需要或誘惑。承認大模型的人類本質,可能會導致積極的新社會機構開花結果。

數據尊嚴不僅僅針對白領角色。考慮一下,如果引入人工智能驅動的修剪樹木的機器人會發生什麼。修剪樹木的人可能會發現自己的價值被貶低,甚至失去工作。但是,機器人最終可能使用一種新型的景觀美化藝術。一些工人可能會發明具有創造性的方法,比如從不同角度看都不一樣的全息圖案,這些方法會進入修剪樹木的模型。有了數據尊嚴,這些模型可能會創造新的收入來源,通過集體組織分配。隨著時間的推移,樹木修剪將變得功能更多和更有趣;將有一個社區被激勵出價值。每一個新的人工智能或機器人應用的成功引入,都可能涉及一種新的創造性工作的開始。無論大小,這可以幫助緩和向整合大模型的經濟的過渡。

矽谷的許多人將全民基本收入視為解決人工智能造成的潛在經濟問題的辦法,但全民基本收入相當於讓每個人都依靠救濟金,以維護黑箱人工智能的想法。我認為這是一個可怕的想法,部分原因是不良行為者會想在一個全體福利制度中奪取權力中心。我懷疑數據尊嚴是否能增長到足以支撐整個社會,但我也懷疑任何社會或經濟原則都會變得完整。只要有可能,目標應該是至少建立一個新的創造階層,而不是一個新的依賴階層。

模型的好壞取決於其輸入。只有通過像數據尊嚴這樣的系統,我們才能將模型擴展到新的領域。現在,讓大型語言模型寫一篇文章比讓程序生成一個互動的虛擬世界要容易得多,因為已有的虛擬世界非常少。為什麼不通過給開發更多虛擬世界的人一個獲得聲望和收入的機會來解決這個問題?

數據尊嚴可以幫助解決任何一種人類滅亡的情況嗎?一個大模型可以讓我們變得無能,或者讓我們非常困惑,以至於社會集體走火入魔;一個強大、惡意的人可以利用人工智能對我們所有人造成巨大傷害;有些人還認為模型本身可以“越獄”,控製我們的機器或武器,用它們來對付我們。

我們不僅可以在科幻小說中找到其中一些情景的先例,還可以在更普通的市場和技術失敗中找到。一個例子是2019年波音737 MAX飛機的空難。這種飛機有飛行路徑校正功能,在某些情況下會與飛行員對抗,導致兩次出現大規模傷亡的墜機。問題不是孤立的技術,而是它被整合到銷售週期、培訓課程、用戶界面和文件中的方式。飛行員認為他們在某些情況下試圖抵製該系統是正確的,但他們的做法正是錯誤的,而且他們無從知曉。波音公司未能清楚地溝通技術的運作方式,由此產生的混亂導致了災難。

任何工程設計——汽車、橋樑、建築——都可能對人造成傷害,但我們卻在工程上建立了一個文明。正是通過提高和擴大人類的意識、責任和參與,我們才能使自動化變得安全;反之,如果我們把我們的發明當作神秘物品,我們就很難成為好的工程師。把人工智能看作是一種社會協作的形式更具有可操作性:它使我們能夠進入機房,機房是由人組成的。

讓我們考慮一下世界末日的情景,即人工智能使我們的社會脫離軌道。可能發生的一種方式是通過深度偽造。假設一個邪惡的人,也許在一個處於戰爭狀態的敵對政府工作,決定通過向所有人發送我們所愛的人被折磨或被綁架的令人信服的視頻,來煽動大眾的恐慌。(在許多情況下,製作這種視頻所需的數據很容易通過社交媒體或其他渠道獲得)。混亂會接踵而來,即使很快就會發現這些視頻是偽造的。我們如何才能防止這種情況的發生?答案很明顯:確保數字信息有背景(context)。

網絡的最初設計並沒有記錄比特的來源,可能是為了使網絡更容易快速發展。(一開始計算機和帶寬都很差。)為什麼當記住比特的來源(或近似於來源)變得更可行時,我們不開始記錄?在我看來,我們總是希望網絡比它需要的更神秘。不管是什麼原因,網絡生來是為了記住一切,同時忘記來源。

今天,大多數人理所當然地認為,網絡,以及它所建立的互聯網,就其性質而言,是反背景、沒有出處的。我們認為,去背景化是數字網絡概念本身所固有的。然而,事實並非如此。不朽的科學家範尼瓦爾·布殊(Vannevar Bush)在1945年、計算機科學家泰德·納爾遜(Ted Nelson)在1960年提出的數字網絡架構的最初建議,就保護了出處。現在,人工智能正在揭示忽視這種方法的真正代價。沒有出處,我們就沒有辦法控製我們的人工智能,也沒有辦法使它們在經濟上公平。而這有可能將我們的社會推到邊緣。

如果一個聊天機器人出現了操縱性、刻薄、怪異或欺騙性的行為,當我們問及原因時,我們想要什麼樣的答案?揭示機器人學習其行為時的來源,將提供一個解釋:我們會瞭解到它借鑒了一部特定的小說,或者一部肥皂劇。我們可以對這種輸出作出不同的反應,並調整模型的輸入以改善它。為什麼不一直提供這種類型的解釋?在某些情況下,可能不應該透露出處,以便優先考慮隱私,但出處通常比對隱私的獨家承諾更有利於個人和社會。

數據尊嚴的技術挑戰是真實的,必須激發嚴肅的科學誌向。政策上的挑戰也將是實質性的。但我們需要改變思維方式,並接受艱苦的改造工作。如果堅持過去的想法——包括對人工智能獨立可能性的迷戀——我們就有可能以使世界變得更糟的方式使用新技術。如果社會、經濟、文化、技術或任何其他活動領域要為人服務,那隻能是因為我們決定人享有被服務的特殊地位。

這是我對所有同行的懇求。想想人。人是解決比特問題的答案。