圖靈獎得主楊立昆:統治慾望源於生存需求,而非智能水平,AI 不會有這種想法 | AI 2025
歲末年關,AI 科技大班營「2025 AI 賽前分析周」正式拉開帷幕。在這一週的時間里,我們將尋找最資深、最專業、最豐富的專家角度,為讀者帶來一場關於 2025 年人工智能的賽前分析性思考盛宴。
本週一的內容是圖靈獎得主、Meta 首席人工智能科學家楊立昆(Yann LeCun)的最新採訪。和前段時間火藥味頗重的「怒懟馬斯克」訪談不同,這次採訪以技術內容為主,LeCun 將一一回應自己在 2024 年提出的那些 AI 前沿觀點,同時分享他對 2025 年人工智能發展的深刻見解與宏偉藍圖。
2024 年,人工智能領域迎來一個歷史性時刻:深度學習先驅 Geoffrey Hinton 與 John Hopfield 共同斬獲盧保物理學獎,這是 AI 研究首次獲得物理學最高榮譽,標誌著計算科學與物理學的歷史性融合。
近日,Meta 首席 AI 科學家、圖靈獎得主楊立昆(Yann LeCun)接受了加州大學聖地亞哥分校傑出物理學教授 Brian Keating 的專訪。由於是和物理學專家的對話,所以與前段時間對話知名記者 Kara Swisher 明顯不同,LeCun 的許多回答直指 AI 技術前沿,面對物理學家大秀了一番自己在物理方面的造詣。
當 Keating 以宇宙學家的視角,用愛恩斯坦 1907 年的自由落體思想實驗挑戰 AI 的創造力時,對話瞬間升溫:「沒有物理實體的AI系統,如何才能像愛恩斯坦那樣構建新的物理定律?」作為西蒙斯天文台首席研究員、著名的宇宙微波背景輻射(CMB)專家,Keating 帶來的不僅是關於宇宙起源的思考,更是對 AI 本質的深層拷問。
採訪中,LeCun 給出了許多總結性的觀點:
-
「我認為這將是未來幾年 AI 領域的重大挑戰:如何超越自回歸式大語言模型架構,發展能夠理解真實世界、獲得某種常識的架構。」
-
「強化學習效率如此之低,以至於它不可能解釋我們在人類和動物身上觀察到的那種高效學習。因為我們學習的大部分內容都不是被教導的,而是自己悟出來的。」
-
「我避免使用 AGI 這個詞的原因,並不是因為我不相信 AI 系統最終會變得和人類一樣聰明。」
-
「要達到讓大眾認可的人類級智能,就算是在最理想情況下——比如 JEPA 架構和其他設想都成功實現,我也看不到 5-6 年內能夠實現。」
-
「在未來兩年內可能發生的是:普通人越來越難找到最新的聊天機器人無法回答的問題。聊天機器人確實越來越厲害了,那請問家用機器人在哪裡?完全自動駕駛的汽車在哪裡?能在 20 小時練習中學會開車而不會撞車的自動駕駛汽車在哪裡?」
-
「認為高智能必然導致統治慾望的想法是錯誤的。這種行為源於物種的生存需求,而不是智能水平。」
-
「尋找可證明安全的 AI 系統,是不可能的。」
-
「智能是社會最缺乏也最寶貴的資源。AI 增強人類智能的影響力可能堪比 15 世紀的印刷術。」
-
「人類水平的 AI 是個產品需求,一旦實現就會產生巨大影響。」
以下為對話全文:
AI 還是不如貓
主持人:LeCun,歡迎來到我的播客節目。你戴的這副智能眼鏡是我最喜歡的科技產品,我現在已經用上第二代了。說起智能眼鏡,我之前也買過 Apple Vision Pro,雖然對一個公立大學教授的薪金來說這確實有點奢侈,不過最後我還是在退貨期內退掉了。
楊立昆:我頭上這副已經是我的第三副雷朋(Ray-Ban)智能眼鏡了。第一代用過一段時間,第二代是去航海的時候因為船翻了進水壞掉的。因為那會兒還是早期產品,我就把它寄回給我們的同事,讓他們分析一下到底是哪裡出了問題,後來他們又給我寄來了一副新的。
主持人:說實話,我覺得這種智能眼鏡真的代表著未來的方向。我用過 Apple Vision,也體驗過 Meta Quest,玩遊戲的時候感覺還不錯,我家孩子們都很喜歡跟我搶著玩。但這些眼鏡都有一個共同的問題:太重了。從人類的生物本能來說,我們並不喜歡視野受到限制,因為這樣可能會讓捕食者有機可乘。相比之下,我特別喜歡這種眼鏡的增強現實體驗,顯示質量也很棒。雖然這聽起來像在給 Meta 做廣告,但我確實覺得蘋果在這方面應該能做得更好,他們現在這個產品恐怕很難持續下去。
不過今天我們主要還是要聊物理學。我想請你跟我們的聽眾解釋一下——鏡頭裡,我背後牆上的這句「打開艙門」(Open the Pod Bay Doors)對你來說意味著什麼?
楊立昆:這句話來自《2001 太空漫遊》這部經典電影。這部電影對我的影響特別深遠。我是在 9 歲時看的首映,當時被電影中探討的各種主題深深吸引:宇宙、太空旅行、智能是如何產生的。雖然那時候年紀還小,但已經對智能計算機這樣的概唸著迷不已。
主持人:很多人可能不知道,我們現在經常說的「播客」(podcast)這個詞就來源於這部電影。在你們的競爭對手蘋果公司,有位工程師叫 Vinnie Chieco(舊金山獨立撰稿人,iPod 的命名者),他和你一樣也是受到了 HAL 9000 的啟發。當他看到電影里那個閃亮的白色小型設備原型時,提議把自己的產品命名為 iPod,這就是「podcast」這個詞的由來。說起來,這部電影里描述的人工智能現在可能會讓一些研究者感到擔憂,比如最近剛獲得盧保獎的 Geoffrey Hinton(「AI 教父」,圖靈獎得主)。
我想從你今年 10 月在《華爾街日報》上的一段話開始我們的對話,這段話引起了我的興趣,也很有挑戰性。你說「AI 的智能水平勉強趕上貓」——你可能還沒見過我家的貓,它會故意把水杯打翻在我的筆記本電腦上,還會玩弄死老鼠取樂——我實在想像不出 AI 會做這種事,除非在元宇宙的每個房間都裝上激光筆。所以,你說這句話是想表達什麼?這樣說是想讓我們感到安心嗎?
楊立昆:我的意思是,即使是現在最先進的大語言模型,雖然在語言處理方面表現驚人,但它們對物理世界基本上沒有任何理解,因為它們完全是通過文本訓練的。它們獲得的世界圖景完全來自人類的表述,這種表述首先是符號化的,而且是近似的、簡化的、離散的。真實世界要比這複雜得多。我們的 AI 系統完全無法處理真實世界。這就是為什麼我們有能通過律師資格考試的大語言模型,卻還沒造出 10 歲孩童水平的機器人——比方說,有些任務對一個10歲的孩子來說輕而易舉,甚至不需要花什麼腦力就能一次性學會。
而貓就可以輕鬆完成這些任務。貓如果想跳到某個感興趣的物體上時,它會先坐下來,轉動腦袋規劃路線,然後一躍一躍地精確到達目標。它們是怎麼做到的?很顯然,這些舉動說明貓能夠規劃,能夠推理,理解物理世界,對自身的動態特性和很多事物的直覺物理學都有極其出色的認知。這些都是我們現在的計算機還無法複製的能力。
理解世界的本質,探索智能的核心
主持人:對這些技術的樂觀和悲觀態度都讓我覺得很有意思。我想到了所謂的「修昔底德陷阱」,就是當一個新興力量崛起時,儘管它還很弱小,但已經主導力量卻會把全部注意力都集中在它身上。這有點類似於沉沒成本謬誤。
我想聽聽你的看法:在物理科學領域,我們是不是正在把自己推向一個死胡同?這種基於 GPU 和大語言模型的方法似乎正在吸走這個領域的所有資源和注意力。從消費者的角度來看,這種趨勢推動 NVIDIA 市值達到 3 萬億美元。我們現在是不是已經完全投入到 GPU 加大語言模型這條路上去了?這會不會扼殺物理學等領域的真正創新?
楊立昆:這個問題的答案既是肯定的也是否定的。確實,如果我們一直沉迷於大語言模型,讓它吸走其他所有的資源和注意力,目前的情況看起來確實有點這種趨勢。大語言模型就像是一把錘子,現在所有東西看起來都像釘子——這其實是一個錯誤。這也是我一直在強調的觀點:大語言模型並不是 AI 的全部。考慮到它們在概念上的簡單性,它們的能力確實令人驚訝。但有很多事情它們做不到,其中之一就是表達和理解物理世界,更不用說在物理世界中規劃行動了。
我認為這將是未來幾年 AI 領域的重大挑戰:如何超越自回歸式大語言模型架構,發展能夠理解真實世界、獲得某種常識的架構。
對於需要深思熟慮的複雜任務,我們的智能運作方式是這樣的:我們會建立一個關於世界運作方式的心智模型,讓它想像我們的行動會產生什麼結果,然後優化這些行動序列來實現特定目標——這就是當貓站著觀察並思考跳躍軌跡時在做的事情,這就是規劃。它們對自己有心智模型,對要跳過的物體也有心智模型。我們經常在不知不覺中做這樣的事情。這對物理學家來說應該很有意思,如果你感興趣,我們接下來可以詳細討論這個話題。
主持人:可以。1907 年,愛恩斯坦做了一個思想實驗,他設想了一個自由落體的電梯里的觀察者——假設電梯的鋼纜突然斷裂,電梯開始下墜,那麼這個人就不會感受到重力場的存在。他把這稱為「一生中最快樂的想法」。
關於這一點,我想請教你兩個問題:第一,計算機有可能產生快樂的想法嗎?第二,如果沒有身體或者說實體,沒有那種我們坐過山車或電梯突然移動時都能感受到的本能反應,一個計算機系統怎麼可能像愛恩斯坦那樣構建新的物理定律呢?
楊立昆:簡單來說,現在的 AI 系統還無法產生這種直覺。雖然目前應用於科學發現的 AI 系統都是專門化的模型,比如用來預測蛋白質結構、預測兩個分子之間的相互作用或者材料性質的模型。你不能用大語言模型來做這類工作,它們只會重覆它們在訓練中學到的內容,不會產生新的東西。
當然,這些專門的模型在某些方面很強大,它們能預測從未嘗試過的化學反應,預測從未製造過的材料的性質。所以它們確實能在一定程度上超越已知領域,比大語言模型更能走出已知的範圍,因為大語言模型基本上只是索引現有知識的方式。但它們還不能產生愛恩斯坦那樣的洞見。目前還不行,但我們希望有朝一日能做到。這也是我最關心的科學問題,就是如何實現這一點。我們人類,還有動物,是通過什麼樣的過程來構建對真實世界的模型的?
一個關鍵問題是,如何找到合適的表徵方式和相關變量,以及如何為我們感興趣的系統找到合適的抽像層次。舉個例子,你我都知道,我們可以收集關於木星的無限多的數據,我們確實已經掌握了大量關於木星的數據,包括它的天氣、密度、成分、溫度等等所有信息。但誰能想到,要預測木星未來幾個世紀的軌道,你只需要六個數字就夠了——三個位置坐標和三個速度值,就這麼簡單。你甚至不需要知道密度、成分、自轉等任何其他信息。就只需要六個數字。所以,要能做出預測,最困難的步驟就是找到對現實的合適表徵,並且排除所有無關的信息。過去幾年我一直在研究一種我認為能夠做到這一點的架構,我們稱之為 JEPA。如果你感興趣的話,我可以詳細解釋一下。
主持人:洗耳恭聽。
楊立昆:大語言模型有一個特點,或者說一個技巧,我很早就一直在提倡,叫做自監督學習。什麼是自監督學習呢?基本上就是你拿一個輸入,可以是一個序列或者其他任何東西,比如一張圖像。你以某種方式破壞它,然後訓練系統從被破壞的輸入中恢復完整的輸入。在語言和大語言模型的背景下,在當前這批大語言模型出現之前,有幾種自然語言理解系統,但其中唯一成功的方法是:你拿一段文本,通過刪除一些單詞,用黑色標記替換它們,或者替換一些單詞來破壞它。然後你訓練一個巨大的神經網絡來預測缺失或錯誤的單詞。在這個過程中,系統學會了對文本的一個很好的內部表徵,這個表徵可以用於各種潛在的應用,比如作為翻譯系統的輸入,或者用於情感分析、摘要等等。
現在的大語言模型是這種方法的一個特例,它們的架構設計成這樣:為了預測一個詞,系統只能看到它左邊的詞。也就是說,它只能看到前面的詞來預測某個特定的詞。這樣你就不需要進行破壞處理了,因為架構本身就通過限制系統只能看到左邊的內容來實現了這種破壞。你輸入內容,然後訓練系統在輸出端重現輸入。這就是自監督的,因為沒有明確的任務要求系統完成,也沒有輸入和輸出的區分。所有東西既是輸出也是輸入。這就是自監督學習。
這種方法在語言領域效果驚人,對 DNA 序列和很多其他類型的數據也很有效。但它只對離散序列有效,比如語言。因為語言只有有限個詞在字典里。你永遠無法準確預測一個詞序列後面會跟什麼詞,但你可以預測所有可能詞的概率分佈,就是一個由 0 到 1 之間的數字組成的大向量,總和為 1。
但對於自然數據呢?比如從傳感器,比如相機獲取的數據,你可以嘗試同樣的方法:拿一張圖像,通過遮罩部分內容來破壞它,然後訓練神經網絡重建完整的圖像。這叫做遮罩自編碼器(MAE)。但這種方法效果並不是很好。實際上,有各種方法可以訓練系統從部分視圖重建,這些都叫做自編碼器,但有各種不同的訓練方法。遮罩技術只是其中之一,但這些方法都不是特別有效。順便說一下,這些技術中很多都受到統計物理學的啟發。比如有一種特定的方法叫做變分自編碼器,這裏的「變分」就來自變分自由能,用的是和統計物理學一樣的數學原理。
主持人:它是在早期就失敗了嗎?是因為缺少某些邊界條件或初始條件嗎?就像三體問題那樣?我去年對本科生問了這樣一個問題:如果我們有水星過去 10000 年的軌道數據,給定這些數據,你能預測出牛頓力學中缺少了什麼嗎?換句話說,你能推導出需要用一個新的變分方法,也就是變分愛恩斯坦拉格朗日量來增補它嗎?然而,即便能預測到水星軌道存在一些異常進動,你也不可能推導出方程。我們基本上不得不通過輸入愛恩斯坦方程的類似形式來強行引導它。
所以,這讓我想到另一個問題:如果 1899 年就有大語言模型,我們能預測出愛恩斯坦的廣義相對論嗎?至少用我們現在使用的這種機器學習模型,我們做不到。這是不是就是它失敗的原因?是不是因為它缺少了愛恩斯坦天才般的洞察力?還是有其他原因?
楊立昆:不,是另外的原因。說起來很普通,但問題在於要預測一個高維的連續信號,比如圖像或影片,很難表示所有可能圖像的概率分佈。還記得我們剛才說的預測單詞的情況嗎?
主持人:對,如果是真實語言的話,它不會輸出無意義的內容,對吧?
楊立昆:沒錯。比如如果有一個動詞,後面很可能會跟一個補語,諸如此類的規律。但對影片來說,你做不到這一點。如果你訓練一個系統來預測影片中會發生什麼,你給它看一段影片,然後停下來,讓它預測接下來會發生什麼。然後當然你會給它看實際發生了什麼,訓練它去預測這個。
但這種方法效果並不好。我在過去 15 年里一直在研究這個問題,確實效果不理想。原因是,如果你訓練一個系統做單一預測,它能做的最好的事情就是預測所有可能發生的未來的平均值。這基本上就會得到一個模糊的圖像。因為即使是我們現在的影片對話,我可能說這個詞也可能說那個詞,我可能把頭轉向這邊也可能轉向那邊,我可能用這種方式移動手也可能用那種方式——如果係統必須做出一個預測,而我們訓練它最小化預測誤差,它就只會預測所有可能發生的事情的平均值。在這種情況下,它會生成我的手、頭和嘴巴都特別模糊的圖像,這顯然不是一個好的預測。所以這種方法行不通。基本上通過重建或預測來進行自監督學習對自然信號是不起作用的。
接下來再讓我們聊聊 JEPA。JEPA 是 Joint Embedding Predictive Architecture(聯合嵌入預測架構)的縮寫。什麼是嵌入?嵌入是對信號的一種表徵。你拿一張圖像,你並不關心所有像素的具體值。你關心的是某種表徵,這種表徵是一系列數字,一個向量,它表示了圖像的內容,但不表示所有細節。這就是嵌入。而聯合嵌入是指,如果你拿一張圖像和它的破損版本,或者說稍微變換過的版本,比如不同視角,圖像的內容並沒有改變,那麼嵌入應該是相同的。所以聯合嵌入架構就是一個大型神經網絡,你訓練它使得當你給它看同一個圖像的兩個版本時,它會產生相同的嵌入,你強製它產生相同的輸出。
然後說到「P」,也就是預測(Predictive)這部分,比如說圖像的一個版本是影片中的一幀,而破損版本是前一幀。這樣你需要做的就是從前一幀預測下一幀,或者預測接下來的幾幀。這就是 JEPA。所以聯合嵌入預測架構有兩個嵌入,一個處理影片的未來,一個處理過去,然後你有一個預測器試圖從影片過去的表徵預測未來的表徵。當你用這種架構來訓練系統學習圖像的表徵時,效果非常好。
過去幾年里,我和我的同事們以及很多其他人已經開發出了許多不同的技術來實現這一點。效果確實很好。我們可以學習到圖像的良好表徵。我們也開始獲得影片的良好表徵,但這是很最近的進展。但你可以想像,現在我們回到之前討論木星的例子,你有關於木星或水星的數據,然後你要求系統找到所有數據的良好表徵,去除所有你無法預測的東西,這樣你就能在表徵空間中做出預測。也就是說,去除所有你無法預測的東素,比如木星上的天氣,所有那些你真的無法預測的細節,只保留那些能讓你在一定時間範圍內做出預測的表徵。
在我看來,這是在理解世界的本質,也正是你在研究物理時所做的事情。你試圖找到一個現象的模型,去除所有無關的東素,然後找到一組相關變量來做出預測。這就是科學的本質。
主持人:這裡面是否涉及主觀的類比?比如說你提到了模型的溫度時,是否仍然需要指定這樣的參數?
楊立昆:在這個上下文中並不特別需要,因為當你有這種架構時,至少是我描述的這種簡單架構,你消除了預測中的隨機性——用一個希臘術語來說就是「stochasticity」。基本上,當系統被訓練做這件事時,它會同時訓練自己找到輸入的良好表徵,這個表徵要儘可能保留輸入的信息,同時還要保持可預測性。所以如果輸入中有一些現像是不可預測的,比如混沌行為,隨機事件,或者由熱漲落引起的粒子個體運動等等,這些你根本無法預測的信息,系統就不會保留這些信息。它會去除這些,只保留對預測有用的相關輸入部分。
比如說,讓我們考慮一個充滿氣體的容器,我們可以測量很多東西,包括所有粒子的位置,這是海量的信息,但你無法預測,因為你需要知道每個粒子是如何與壁面和熱庫相互作用的。所以你真的無法做出任何預測。系統可能會告訴你:「我無法預測每個粒子的軌跡,但我可以測量壓力、體積、可能還有粒子數和溫度。當我壓縮時,熱量上升。」其中涉及了 PV=nRT 之類的規律,而在我看來這真的就是機器學習與科學,特別是物理學聯繫的本質。
這裏還有另一個我認為很迷人的方面,因為這是個相對新的概念,我們還沒有充分探索,那就是表徵的抽像層次的概念。科學家們在物理學和其他科學領域已經在這樣做了。理論上,我們可以用量子場論來解釋我們之間現在發生的一切,對吧?
主持人:是的,我想是這樣。
楊立昆:人類意識的主觀性可能會起作用。但從根本上說,這隻是粒子的相互作用,對吧?所以理論上,這一切都可以歸結為量子場論。但顯然,這完全不實用,因為你需要處理的信息量簡直是天文數字。我們使用不同的抽像層次來表示現象,再次強調,這是為了去除細節。
我們有量子場論,在它之上是基本粒子理論,原子理論,分子理論,材料科學,然後你可以往上走,可以走得很高,然後是生物學,物體之間的相互作用,再往上可能是心理學。所以找到好的抽像表徵,找到表徵的層次,讓你能夠理解發生了什麼,同時去除所有無關的細節,這正是智能的核心,我是這麼認為的。
再議強化學習
主持人:我在五月份和 Peter Thiel(Paypal 創始人)討論過一道問題,即「我們是否能從大語言模型中推斷出什麼」。它們確實有一些湧現性的特徵,但目前它們缺少的東西,不清楚僅僅通過訓練數據就能讓它們達到「人工愛恩斯坦」的水平。基本上,大語言模型有 20 萬億個 token,但一個四歲的孩子獲得的數據量要大一個數量級,也許它們最終能獲得那 10 倍的數據量。
但我總是說,阻止我們提出廣義相對論類似理論或萬物理論的,難道是因為 AI 現在還不知道《角鬥士 2》的劇情嗎?我不這麼認為。換句話說,可以有無限多的訓練數據以 token 的形式提供,但這裡面有一些很不一樣的東西。愛恩斯坦不需要看《速度與激情 1》就能提出廣義相對論,提出洛倫茲不變性原理。
說到龐加萊,在你看來,發現新物理學最有可能的途徑是什麼?是 JEPA 這種類型的視覺數據和基於觀察現象的建模、在兩者之間建立預測性橋樑的方法,還是像符號回歸這樣完全不同的方法?後者在我看來確實需要只有人類才能提供的某種監督。關鍵是,它是否需要只有人類才能提供的某種監督?
楊立昆:就目前來說,我覺得有一些技術專家已經研究了一段時間,在短期內可能會有很大的實用價值。比如符號回歸這樣的技術,這類工作可以追溯到幾十年前,但那時候因為計算機能力不夠強大等原因,效果不是很好。現在已經有了很大的進展。但我不認為這種方法能夠產生我們談論的那種洞察力,就是愛恩斯坦那樣的洞察力,或者像費曼那樣的物理學家的洞察力,當然更不用說僅僅依靠這種方法就能產生萬物理論了。
我認為缺少的東西更加根本。就是構建世界心智模型的能力,一個系統能在心智中操作這個模型,並使用極端情況。這就是我們之前談到的愛恩斯坦擅長的那種思想實驗——在心智中建立某種模型,提出假設,然後把這個模型推向極端情況看看會發生什麼。或者像人們經常用來解釋相對運動時間收縮的思想實驗:如果你觀察一個在火車上的人,他讓光在兩面鏡子之間上下反射,對那個人來說,光就是在車廂高度的垂直距離內上下運動。但對外部觀察者來說,光是在沿對角線運動,所以實際上走了更長的距離,但仍然是以光速運動。所以時間一定是在收縮。
現在看來這實驗很簡單,但我們必須做出一個巨大的假設,就是光速對每個人來說都是一樣的。這就涉及到你談到的訓練數據的問題。你需要看過《角鬥士》才能提出相對論嗎?當然不需要。有趣的是,科學史學家似乎說愛恩斯坦並不瞭解凱斯西儲大學的實驗——他們試圖證明以太的存在,卻失敗了。他們認為是自己的實驗有缺陷。據歷史學家說,愛恩斯坦似乎並不知道這個實驗。至少歷史學家是這麼說的。所以即使在沒有實驗證據支持他的假設的情況下,他也能提出這個概念。這確實很了不起。
主持人:雖然我們才認識 40 分鐘,但我覺得你其實是個深藏不露的物理學家。
楊立昆:我確實是。
主持人:你最近說過一句讓我特別感興趣的話,因為這正好是我的研究領域。你把自監督學習比作 AI 領域的暗物質。就像物理學中的暗物質一樣,它是必不可少的。我們知道它存在,或者說我們認為它存在——比方說,微子是暗物質的一種形式,但它們不足以解釋觀測到的缺失物質的數量。但你的比喻又是什麼意思?你為什麼說自監督學習類似於暗物質?
楊立昆:這個說法其實是八年前的了。我在一次主題演講中提出這個觀點時,台下坐著我的前同事 Kyle Cranmer,他是紐約大學的高能物理學家,現在在威斯康辛大學。他說我不應該用暗物質作為類比,應該用暗能量,因為那才是宇宙中質量的主要部分。
我當時想要解釋的類比是這樣的:我們學習的大部分內容,並不是通過被告知答案或者通過試錯來學習的。我們只是通過自監督學習來學習我們感知輸入的結構。好吧,或者說類似的東西。我們實際上並不知道人類和動物使用什麼方法,但它肯定更像是自監督學習,而不是監督學習或強化學習。
監督學習是這樣一種情況:你有明確的輸入和明確的輸出,你訓練系統將輸入映射到輸出。比如給系統看一張大象的圖片,告訴它這是大象。如果它說這是貓,就調整參數讓輸出更接近「大象」,對吧?這就是監督學習。而強化學習是你給它看一張大象的圖片,等它給出答案,然後只告訴它答案是對是錯。你不告訴它正確答案是什麼,只告訴它是對還是錯。也許會給一個分數。這樣系統就必須在所有可能的答案中搜索正確的那個。如果答案的可能性是無限的,這種方法就極其低效。
強化學習效率如此之低,以至於它不可能解釋我們在人類和動物身上觀察到的那種高效學習。因為我們學習的大部分內容都不是被教導的,而是自己悟出來的。動物也是如此,有很多動物物種變得非常聰明,卻從未見過它們的父母。章魚就是一個很好的例子,在鳥類和其他物種中也有很多例子。所以它們學到了很多關於世界的知識,卻從未被任何人教導過。
自監督學習,才是真正的學習主要發生的地方。大語言模型的成功真正展示了自監督學習的力量。我當時用了一個比喻,我展示了一個巧克力蛋糕的圖片,然後說蛋糕的主體部分,也就是蛋糕胚,就是自監督學習。糖霜是監督學習,蛋糕上的櫻桃是強化學習。如果你想量化不同學習模式的相對重要性,這就是正確的類比。
當我在 2016 年說這些的時候,整個世界都完全專注於強化學習。強化學習被認為是通向人類水平 AI 的道路。我從來不相信這一點。所以當時這種觀點很有爭議。現在不再有爭議了。然後我說,在蛋糕胚的主體部分有巧克力,那就是暗物質,是我們必須弄清楚如何做到的東西。這就像我們和物理學家處在同樣尷尬的處境,我們知道如何做強化學習和監督學習,但我們並不真正知道如何做這個佔主要部分的自監督學習。
主持人:繼續談談暗物質的話題。上週我和你的一位同行 Stephen Wolfram(細胞自動機的提出者,計算機科學家)談話,他對暗物質有一個非傳統的想法,他認為宇宙是一個超圖,按照他的說法,這個超圖通過純計算規則演化,而時間是由超圖的更新率產生的。他提出,由於時間和溫度通過熱力學定律中的熵相關聯,他實際上在暗示暗物質就是他所說的「時空熱」。
我不是要你具體評論這個觀點。說實話我自己也不完全理解。我們辯論此事是因為我提出了一個問題——我們暗物質的存在,卻不知道它到底是什麼。它可能是像軸子這樣的奇異新粒子,也可能是我們不理解的某種新力場。但有些暗物質我們確實完全知道,比如 WIMPs(弱相互作用大質量粒子)。那麼時空熱能解釋現在宇宙中溫度約 1.9 開爾文的中微子嗎?我們就這樣爭論了一番。但總的來說,關於宇宙是純粹計算的這個超圖想法,作為一個研究者,你對這個想法有什麼看法?
楊立昆:具體關於超圖的想法我不太瞭解,但我可以告訴你,物理學和計算之間的聯繫一直讓我著迷。1988 年我在巴爾實驗室開始職業生涯時,我所有的同事都是物理學家。那個實驗室是物理實驗室。我是唯一一個非物理學家——我不想說自己是計算機科學家,因為我的本科學位實際上是電氣工程,而且我學過很多物理。但我所有的同事都是物理學家。
我有一位才華橫溢的同事叫 John Denker(量子物理學家),他的辦公室就在我隔壁。我們兩個都對物理學中的一些基本問題以及它們與計算的聯繫非常感興趣。1991 年左右,我們參加了聖塔菲研究所的幾個研討會,其中一個是由 Wojciech Zurek(量子理論權威)組織的。當時參加的人包括 Seth Lloyd(提出世界上第一個技術上可行的量子計算機設計),他那時候剛剛完成博士學位。還有 Murray Gell-Mann(1969 年盧保物理學獎得主)和 John Wheeler(物理學巨擘,黑洞概念領軍者)這樣的人物。John Wheeler 當時做了一個演講,題目是「比特造物」(It from Bit)。這也是他的一系列講座的標題。
他說:「從根本上說,一切都是信息。我們必須找出如何用信息處理的方式來表達所有的物理學。」我覺得這個概念非常吸引人。我對這個想法思考了很長時間,雖然還不夠具體到可以寫成論文,但有一些有趣的想法。這方面的一個聯繫是可逆計算的概念,這個概念現在因為量子計算變得很重要,但在 90 年代早期並不那麼流行。
AMI
主持人:說到物理學家,我們這次採訪也從你的朋友 Max Tegmark那裡收集了兩個問題給你。第一個是:「你預計什麼時候會出現 AGI?這裏定義 AGI 為能完成幾乎所有空間工作的 AI。」
楊立昆:我避免使用 AGI 這個詞的原因,並不是因為我不相信 AI 系統最終會變得和人類一樣聰明。我完全相信在未來某個時候,我們會有機器在人類智能的所有領域都能達到人類的水平。這毫無疑問會發生。這隻是時間問題。但把這稱為 AGI 完全沒有意義,因為人類的智能是極其專門化的。這就是我不喜歡這個術語的原因。
我一直使用的術語是「人類水平的 AI」或「AMI」(高級機器智能,Advanced Machine Intelligence)。這是我們在 Meta 內部使用的術語——
主持人:朋友。(法語的「朋友」這個單詞叫 Ami)
楊立昆:對,我們內部有很多法國人。在法語中正好也是這個意思。但概念是一樣的。關於實現通用人工智能的時間表,這是個連朱克伯格這樣打算投入數百億建設 AI 訓練基礎設施的人都在關心的問題。
我的看法是這樣的:如果在幾年內,你能戴上智能眼鏡,獲得一位超越你智慧的 AI 助手,這不應該令人感到威脅,因為就像有個聰明的同事隨時可以請教。
但要達到讓大眾認可的人類級智能,就算是在最理想情況下——比如 JEPA 架構和其他設想都成功實現,我也看不到 5-6 年內能夠實現。而且歷史告訴我們,人們總是低估了 AI 發展的難度,我現在可能也在犯同樣的錯誤。
這個 5-6 年的預期是建立在不會遇到意外障礙的基礎上。它需要我們的所有嘗試都成功,需要技術能夠擴展,需要計算能力提升,需要諸多條件完美契合。所以這已經是最理想情況了,別期待明年就能實現——哪怕你可能從其他人那裡聽說過。
主持人:比如 Sam Altman。
楊立昆:對,Sam Altman,Elon Musk,還有其他一些人。比如 Dario Amodei。他們經常說這會在未來兩年內發生之類的。
然而,在未來兩年內可能發生的是:普通人越來越難找到最新的聊天機器人無法回答的問題。聊天機器人確實越來越厲害了,那請問家用機器人在哪裡?完全自動駕駛的汽車在哪裡?能在 20 小時練習中學會開車而不會撞車的自動駕駛汽車在哪裡?
主持人:作為一個對 AI 著迷並從中受益的普通人,我很好奇你的看法。比如現在我可以讓 Meta 給孩子們讀故事——雖然我沒這麼做,但道德上這和讀別人寫的書沒什麼區別。
但我覺得我們現在的討論有點像德雷克方程。這個方程用來估算外星文明數量,給出一系列確定的參數,卻忽略了不確定性。作為科學家,我們都知道系統誤差容易處理,而統計誤差才是難點——這才是物理學的精髓,需要直覺和技巧。但在這類問題上,你要麼得出宇宙中有數十億文明,要麼一個都沒有,完全取決於你選擇的誤差範圍。
AGI 可能也是如此模糊。如果不用圖靈測試,而用德雷克方程會怎樣?圖靈測試在一百年前很實用,但德雷克方程是關於「誰在和我們說話」,而圖靈測試是關於「誰在聽我們說話」。你覺得什麼樣的測試更合適?
楊立昆:壞消息是,我認為不存在任何單一的測試可以奏效。因為在任何特定領域,都可能出現超越人類的專門解決方案。計算機科學的歷史已經證明了這點——從基礎運算到多語言翻譯,從一個 30 美元的象棋設備到 GPS 導航的路徑算法,這些都是相對簡單的技術,卻能在特定任務上超越人類。
人們對大語言模型的語言操控能力印象深刻,但事實證明這比我們想像的簡單得多。從進化角度看,語言能力僅在最近幾十萬年才出現,人類和黑猩猩基因組的差異可能只有幾兆字節。大腦中的語言處理也只需要布洛卡區和韋尼克區這兩個小區域。
這些系統表面上看起來具有一般智能,實則相當膚淺。當我們嘗試構建能完成簡單物理任務的系統時就能發現,這些任務極其複雜。儘管機器學習推動了機器人技術的進步,但我們離目標還很遠。
可證明安全的 AI 系統是不可能的
主持人:再讓我們回到 Max Tegmark 的第二個問題,你可能已經猜到了,「Yann,你有什麼計劃來防止更智能的 AGI 失控?」
楊立昆:這個問題我與 Max 和 Hinton 都有分歧。雖然我們是好朋友,但觀點不同。首先,認為高智能必然導致統治慾望的想法是錯誤的。看看人類社會就知道,最聰明的人並不一定想當領導者,看看剛結束的大選。
主持人:確實,但我們就不談政治了。
楊立昆:要產生統治行為,需要實體內部硬編碼的資源競爭驅動力。這種統治-服從關係是社會性物種的特徵,比如狒狒、黑猩猩、狼群。而在人類社會中,還存在通過威望獲得影響力的方式——就像我們學者。相比之下,獨居的猩猩就沒有統治慾望,因為它們不需要。
現在的關鍵是如何確保 AI 系統的目標與人類價值觀一致,避免它們有意或無意地傷害我們。大語言模型某種程度上確實不安全,因為它們是通過自回歸方式逐個生成 token,而不是通過優化目標來產生輸出。
主持人:為什麼說不安全?就像小孩一樣,沒有實際力量也沒有網絡控制權,即使行為可能看起來很隨機。
楊立昆:小孩可能會在你電腦前隨機敲鍵盤,破壞文件系統。但就像你說的,不會發動核戰爭。AI 系統也一樣,除非我們在設計上犯重大錯誤。
孩子們有進化賦予的硬編碼驅動力,有些是為了探索和學習世界,有些則很具體——比如一歲左右想要站立,這是學習走路的本能。還有些更基礎的硬編碼行為,比如觸碰嬰兒嘴唇會引發吸吮反應。但自然只給了目標,不會告訴你如何實現——就像進食,你需要在父母幫助下自己學會找食物。
主持人:我不認為有什麼是完全不可能的,但 Max 似乎在試圖證明一些可能無法證明的東西。讓你證明系統安全,這不就像在證明一個否定命題嗎?
楊立昆:就像 Stuart Russell(歡迎回顧 CSDN 和這位教授的獨家採訪)在尋找可證明安全的 AI 系統一樣,這就像試圖證明渦輪發動機是絕對安全的——這是不可能的。但我們仍然可以製造出非常可靠的渦輪發動機,讓雙發飛機安全地帶你飛越半個地球。
AI 也會如此。不會有什麼神奇的數學證明,但我們可以通過工程手段構建安全系統。我的方案是構建目標驅動 AI。這種系統不是簡單地逐個生成輸出,而是通過優化來實現目標。系統會建立環境的心智模型,預測行動序列的結果,然後檢查是否滿足目標和護欄條件。
這些護欄就像約束條件——比如禁止傷害他人或過度消耗資源。系統會在行動空間中搜索最優解,同時遵守這些限制。除非你從根本上破壞系統,否則它無法繞過這些護欄。這和我們對人類行為的管理方式類似——通過法律設置邊界。
主持人:對 AI 來說就像燒燬 GPU 電路一樣致命。
楊立昆:沒錯,人類可以選擇違法,但目標驅動的 AI 從設計上就必須遵守這些護欄。
主持人:我把這稱為「間隙中的 AGI」。關鍵是 AGI 不會突然出現,這是個漸進過程。就像我們看到的 Waymo——它們不會在人行道上行駛,即使那是最短路徑。我們能在早期版本就看到這些護欄的效果。就像第一個操作系統不是用操作系統構建的,第一台計算機不是用計算機設計的一樣。第一個真正的 AGI 也不會是由 AGI 製造的,所以不可能出現那種遞歸式的失控。
人類水平的 AI 是個產品需求
主持人:你對 AGI 還有什麼其他想法?
楊立昆:我持樂觀態度。智能是社會最缺乏也最寶貴的資源。AI 增強人類智能的影響力可能堪比 15 世紀的印刷術——它推動了知識傳播、啟蒙運動、科學發展和民主。雖然也曾帶來短期的負面影響,比如歐洲 200 年的宗教戰爭,但最終推翻了封建制度,引發了美國和法國革命。如果我們能做好,AI 將同樣具有變革性影響。
主持人:所以你認為 AI 實際上會比 Facebook 早期的「戳一下」功能對人類更有變革性?說到 Facebook,你如何看待自己的身份?是教授、科學家、還是全球頂尖公司的員工?如果一個超級智能 AI 問你是誰,你會如何回答?
楊立昆:我首先是個科學家,也是教育者——不僅因為我是大學教授,更因為我致力於向公眾傳播科學知識。我的職業生涯在工業界和學術界各佔一半。我在巴爾實驗室開始職業生涯,後來去了 AT&T 實驗室和 NEC 研究所。四十多歲才成為教授,此前從未任教。
我在紐約大學專職教授十年後加入了 Facebook,創建了 FAIR。我管理 FAIR 四年,同時保持教授職位——大約三分之二時間在 Meta,三分之一在紐約大學。現在我是 Meta 首席 AI 科學家,專注於個人貢獻而非管理工作。說實話,我不擅長管理,那四年對我來說是種折磨。我更感興趣的是智力影響力。
我在 Meta 的使命是為實現人類級智能鋪路。這既是我畢生的科學追求,也是產品願景——在智能眼鏡中植入人類級智能助手。這是少有的例子,宏大目標與商業價值完美契合。
主持人:有個小技巧,你知道飛機上可以免費用 WhatsApp AI 和 Meta AI 連網嗎?不用付那 19 美元的 WiFi 費用。
楊立昆:是的,通過 Meta AI 確實可以訪問互聯網。不過別說太大聲,免得航空公司發現。
主持人:朱克伯格對這些技術的興趣是什麼?不可能只是為了改進濾鏡吧?作為非科班出身,他對未來的願景一定不只關乎消費,對吧?他的使命是什麼?
楊立昆:他的核心使命是連接人類——這就是 Meta 的全部意義。但連接不僅指人與人之間,還包括人與知識的連接,以及改善人們的日常生活。
就像電影《她》展現的那樣,未來每個人都可能隨身攜帶超智能助手,通過眼鏡、耳機或帶攝像頭的設備。這就像現在的商界領袖、政治家或學者都有智囊團一樣。我個人也傾向於僱傭比我更聰明的人,這是好事。人們應該為這樣的未來感到充滿力量。如果要實現這個願景,就需要人類水平的 AI。這是個產品需求,一旦實現就會產生巨大影響。我們已經在印度農村測試了雷朋眼鏡,農民們非常喜歡它。
主持人:他們用它做什麼?
楊立昆:他們可以詢問植物病症、蟲害防治、收穫時機、天氣預報等問題。最重要的是,他們可以用自己的當地語言交流。
主持人:是用印地語嗎?
楊立昆:印地語只是官方語言之一。印度有 700 多種方言,20-30 種官方語言。大多數人其實不會說印地語。這種技術能讓他們用自己最熟悉的語言獲取知識和幫助。
AI 會取代教授嗎?
主持人:在結束前,我有兩個問題。首先談談我們的職業身份。我認為自己首先是父親和丈夫,然後是科學家和教育者。想到我的偶像伽利略——他既是教授也是科學家,但也要謀生。他製造望遠鏡,編寫說明手冊如《星際信使》和《對話》來獲取收入。
我們這個被稱為「第二古老的職業」的教授工作,從博洛尼亞到牛津再到薩拉曼卡,已有千年歷史。你認為 AI 會如何改變它?為什麼學生還要跟我學習宇宙學和廣義相對論,而不是直接向「AI 版愛恩斯坦」請教?作為教授,你如何看待這個既是威脅也是機遇的局面?
楊立昆:顯然,知識傳遞領域將經歷深刻變革。我們需要為研究、科學和學術找到新的運作模式。但導師與學生之間類似絕地武士與學徒的關係仍將存在,因為這不僅關乎知識傳授。我們可能從學生那裡學到的跟他們從我們這裏學到的一樣多,只是學習和交流的方式不同。互動的重要性在於傳遞行為規範、倫理價值、研究方向和科學實踐。在未來,每個人都會成為虛擬團隊的一員,包括商界領袖、教授以及所有人。我們與學生的互動將是與學生本人及其 AI 系統的互動。
主持人:這是一個很棒的觀點。我不覺得受到威脅。即使研究宇宙大爆炸時,我也保持著對它的熱忱。我們正處在 AI 發展的起步階段,有人說現在是 AI 最差的時期,未來只會更好。
楊立昆:確實如此。
主持人:是的。我能做的事情越來越多。某些任務仍需監督,但最重要的是這個過程多麼令人愉悅。通過眼鏡與 AI 交談、詢問物理問題並互動學習,特別是隨著新的 Llama 模型在幾乎每個學科都達到了 120 的智商水平,這些都讓我感到非常興奮。
最後一個問題。亞瑟·克拉克曾說,知道可能性極限的唯一方法就是超越它們。他還提到,每位專家都有一個持相反意見的專家;當一位傑出的科學家認為某事可能時,他很可能正確;但當他斷言某事不可能時,他往往錯了。Yann,在什麼事情上你改變過看法?
楊立昆:確實有很多。比如在神經網絡早期,1987 年我在 Geoffery Hinton 那裡做博士後時,我對無監督學習持否定態度,認為這個概念定義模糊。而 Geoff 卻堅信這是最有意思的方向,並因此獲得了廣泛認可。雖然現在沒有人用玻爾茲曼機器了,但他的觀點影響深遠。他堅信學習必須是無監督的,事實證明他是對的。我到了 2000 年代初才認同這一點,並在 2010 年代開始明確倡導。這證明我之前的判斷確實是錯的。
對了,說到望遠鏡,雖然我不製造它們,但我業餘時間做天體攝影。雖然不是科研,但我拍攝了一些漂亮的照片。
主持人:我很想看看。我在 Twitter 和 Instagram 上關注你,希望能看到這些作品。世界上最早的天體攝影師之一就是伽利略,他不僅記錄觀測結果,還描繪出他對宇宙的感悟。楊立昆,感謝這次精彩的對話。期待在西蒙斯基金會或弗拉特倫研究所再次相遇。
參考:https://www.youtube.com/watch?v=u7e0YUcZYbE