諾獎採訪深度學習教父辛頓:最快五年內 AI 有 50% 概率超越人類,任何說「一切都會好起來」的人都是瘋子
作者 | 盧保獎官方
編譯 | 王啟隆
傑佛瑞·辛頓(Geoffrey Hinton),這位被譽為「人工智能教父」的科學家,於去年獲得了盧保物理學獎,引起了全網一陣討論。
最近辛頓接受了盧保獎官方的專訪,他回憶起接到諾獎電話時的趣事時,第一反應竟然是疑惑,因為自己研究的並非物理學(這點和全網的疑惑倒是一樣)。

作為深度學習領域的先驅,辛頓最廣為人知的成就是神經網絡。但很多人其實不知道,他曾說過自己這輩子「最自豪」也是「最失敗」的成就,其實是與泰利·塞諾夫斯基(Terry Sejnowski)共同提出了玻爾茲曼機理論。
他們的工作,以及另一位諾獎物理學獎得主約翰·霍普菲爾德(John Hopfield)等神經網絡先驅的早期研究,共同奠定了現代人工智能發展的基礎。

採訪中,辛頓表達了對人工智能未來發展的擔憂。他認為,人工智能可能在短短五年內超越人類智慧,並就此可能引發的社會風險,例如大規模失業和虛假信息等問題,提出了警告。更令人深思的是,辛頓暗示,人工智能的潛在風險可能遠超我們目前的認知。
接下來的正文內容,帶大家深入瞭解辛頓的最新觀點。
盧保獎:您最初是如何得知自己獲得盧保獎的?
傑佛瑞·辛頓:當時我正好在加利福尼亞一家酒店房間里睡著了,我的手機背面朝上放在床頭櫃上,並且關掉了聲音。因為是側臥,手機正好在我的視線內。突然,手機屏幕亮了起來。我看到一絲光亮,然後手機開始震動。考慮到加利福尼亞與我認識的幾乎所有人所在的東海岸存在時差,我感到疑惑,到底是誰會在這個時候給我打電話?
我拿起手機,屏幕上顯示了一個我不認識區號和國家代碼的長號碼。這時,電話那頭傳來一個帶有瑞典口音的聲音,詢問我是否是傑佛瑞·辛頓。接著,他告訴我我獲得了盧保物理學獎。
我的第一反應是,等等,我研究的不是物理學啊?這會不會是一個惡作劇?但隨後,他所說的內容聽起來非常可信。之後,又有其他帶有瑞典口音的人加入了通話。這時我才開始相信這是真的。
在接下來的幾天里,我仍然感覺像是在做夢。因此,我進行了一些統計學上的推理。我的推理過程是這樣的:一個真正致力於研究大腦工作原理的心理學家,獲得盧保物理學獎的概率有多大?假設這個概率是兩百萬分之一,這已經是一個相當寬鬆的估計了。那麼,如果這是一個夢,我夢見自己獲得了盧保物理學獎,這個概率又是多少?假設是二分之一。這樣一比較,夢境的可能性是現實可能性的百萬倍。
因此,我感覺這可能像小時候做過的那些會飛的夢幻一樣——夢裡我可以自由飛翔,感覺美妙極了,但醒來後才發現那隻是一場夢。過了一個月,我又做了一個會飛的夢。我記得上次做過會飛的夢,但那並不是真的,而這次卻感覺如此真實。我當時就想,這次會不會也是這種情況?所以有那麼幾天,我一直處於一種等待醒來的狀態。直到現在,我仍然沒有醒來。
盧保獎:在著名的研究人員家庭中長大是怎樣的體驗?
傑佛瑞·辛頓:在學術上取得成功的壓力一直很大。我從小就隱約地意識到,我必須在學術上有所成就,否則就會被(家族)視為失敗。
盧保獎:是什麼讓您對研究人工智能產生興趣?
傑佛瑞·辛頓:我高中時有個朋友,他總是比我聰明得多。大約在我們 16 或 17 歲的時候,有一天他來學校,開始談論大腦中的記憶,以及它們如何像全息圖一樣分佈在大腦中。
當時全息圖剛剛問世,大約是 1965 年。他對心理學家魯殊利提出的觀點非常感興趣,即記憶是分散存儲在許多神經元中的。我對這個觀點產生了濃厚的興趣,從那時起,我就一直在思考大腦是如何運作的。
盧保獎:人工智能帶來的最大風險是什麼?
傑佛瑞·辛頓:人工智能的風險大致可以分為兩類:
-
一類是相對短期的風險,這些風險既重要又緊迫。它們主要源於人們對人工智能的誤用。目前,人工智能仍然受人類控制,但已被濫用。這些短期風險包括人工智能取代大量工作崗位,加劇貧富差距。因為當人工智能提高生產力時,收益分配並不均衡。一部分人會失業,而另一部分人則會變得更加富有。這對社會發展是不利的。這是一種風險,我們需要思考應對之策,儘管具體的應對方法尚不明確。
-
另一種短期風險是虛假影片,它們可能會被用來幹擾選舉,這種情況已經開始出現。還有網絡攻擊的風險,一些不良分子可能會利用大型人工智能模型來策劃更複雜的攻擊。最初可能只是為了更有效地進行網絡釣魚。例如,去年到現在,網絡釣魚攻擊事件增加了 1200%,這很可能與大語言模型的出現有關,因為它們使得網絡釣魚更具欺騙性。
-
此外,人工智能還可能被用於設計生化武器,而且使用人工智能可以更高效地完成這類設計。在不久的將來,設計這類武器可能會變得相對容易,這意味著一個心懷不軌的人就可能製造出難以想像的混亂。如果大模型的參數被公開,情況會變得更加糟糕。因為他人可以輕易獲取這些大型模型,並進行微調。而現在已經有人開始公開大模型的參數,我認為這種做法非常不明智。
-
除了以上風險,還有一些其他的短期風險,例如歧視和偏見。例如,如果你訓練一個人工智能模型來決定是否應該給予囚犯假釋,而歷史數據表明白人囚犯更容易獲得假釋,黑人囚犯則不然。那麼,基於這些歷史數據訓練出來的人工智能模型,很可能會得出與歷史數據相同的結論。但我個人並沒有像其他人那樣對此感到過分擔憂。因為對於人工智能模型,我們可以凍結其參數,並量化其中的歧視程度,這在人類身上是難以做到的。如果我們試圖衡量人類的歧視程度,人們會意識到自己正在被評估,從而產生「大眾汽車效應」,即他們在被評估時會表現得與平時不同。
因此,我認為在人工智能系統中衡量歧視和偏見,實際上比在人類行為中衡量要容易得多。而且,我認為我們的目標不應該是創造完全沒有歧視和偏見的事物。我們的目標應該是創造出相比於現有系統,歧視更少、偏見也更少的人工智能系統。
以上討論的是短期風險。此外,還存在一個長期風險,即人工智能可能會超越人類並控制一切。我們正在創造比我們自身更智能的實體。對於人工智能超越人類的時間節點,研究人員的看法不盡相同,但在頂尖研究人員中,對於這件事終將發生幾乎沒有異議,除非人類自我毀滅。因此,問題在於,當我們創造出比我們更聰明的生物時會發生什麼?我們對此一無所知,因為之前從未遇到過這種情況。任何斷言一切都會好起來或者必然能掌控局面的人,都是瘋子。正因如此,現在就進行大量基礎研究,探索我們是否能夠駕馭比我們更聰明的造物,顯得尤為重要。
我們所知的由不夠聰明的事物控制更聰明事物的例子並不多。我所知的唯一較好的例子是嬰兒對母親的控制(此處指嬰兒的需求和哭鬧會影響母親的行動和決策)。然而,這兩者之間的智力差距並不大,而且進化花費了漫長的時間才促成這種情況。
現在,有些人認為這不成問題,因為這些智能體由我們創造,並且我們會以一種確保始終能掌控它們的方式來構建。但是,這些事物會非常聰明,它們會像我們一樣,實際上,它們的工作方式與我們非常相似。它們並非像計算機代碼那樣運作——儘管人們有時將它們稱為計算機程序,但它們根本不是傳統意義上的程序。你編寫計算機程序是為了指導神經網絡如何學習,即一個模擬的神經網絡。然而,一旦神經網絡開始學習,它就會從數據中提取結構,最終形成的系統是從數據中自行構建結構的,而非由人編寫的固定程序。我們並不確切知道這種系統會如何運作,而且它們會像我們一樣具備自主性。
因此,要讓這些系統表現得合理,就像教育孩子一樣。我們主要的控制手段在於強化和訓練:獎勵良好行為,懲罰不良行為。更重要的是,通過展示和示範良好的行為來訓練它們,使其觀察並模仿。對於這些系統而言,情況也是如此。所以,對它們進行我們期望看到的行為類型的訓練至關重要。目前,大型聊天機器人是基於它們所能獲取的所有數據進行訓練的,這其中甚至包括連環殺手日記之類的內容。試想一下,在養育孩子的過程中,你會讓孩子通過閱讀連環殺手的日記來學習嗎?相信你會意識到那絕對是一個糟糕的主意。
盧保獎:在人工智能超越我們之前,我們還有多少時間?
傑佛瑞·辛頓:我個人認為,在未來的 5 到 20 年內,我們很有可能,大概有 50% 的概率,會創造出比人類更智能的人工智能。當然,這個時間可能會更長,也可能稍短一些。但我認為在 20 年內,這種情況發生的可能性相當大。其他研究人員對此的預測時間或長或短,這隻是我個人的猜測。實際上,這個預測和我一年前的猜測相同。所以,如果現在讓我重新猜測,我可能會將時間範圍調整為 4 到 19 年。
盧保獎:作為一名科學家,取得成功的重要個人品質是什麼?
傑佛瑞·辛頓:我認為這取決於你所處的領域,以及你是否嘗試在研究方向上與領域內的普遍標準有所不同。就神經網絡領域而言,很長一段時間里,它都被視為荒謬的,許多人都認為它永遠不會奏效。因此,要在這樣一個領域取得成功,你必須有自信,堅信自己是對的,即使所有人都認為你是錯的。
實際上,我在很小的時候經歷過幾件事,這對我的成長有所幫助。其中一件是,我的父母都是無神論者,卻在我七歲時把我送進了一所基督教私立學校。學校里的每個人都信仰上帝,包括老師和其他學生。但在我看來,這簡直是無稽之談。事實證明,我是對的。這種經歷讓我體會到,當週圍的所有人都相信某件事,而你卻清楚地知道他們是錯的,並且隨著年齡增長,你發現越來越多的人也不再相信他們所相信的,這是一種非常有益的體驗。
這對我堅持研究神經網絡起到了很大的幫助,即使當時幾乎所有計算機科學領域的人都認為神經網絡是無稽之談。當然,並非所有人,但幾乎是所有計算機科學領域的人。
另一個我很少提及的經歷是,大概在我九歲左右的時候,具體年齡記不太清了。我聽到了一個廣播節目,我的父親在節目中談論大陸漂移學說。在當時,關於大陸是否會移動,存在著很大的爭議。幾乎所有的地質學家都認為這完全是荒謬的。這個理論最早是由氣候學家魏格納在 1920 年左右提出的,他提供了許多證據來證明大陸是會移動的。但他並非地質學家,因此地質學家們認為他的理論完全是胡說八道,並對此嗤之以鼻。例如,他們拒絕將大陸漂移學說納入教科書,認為這會誤導學生,完全是無稽之談。
盧保獎:您對年輕研究人員有什麼建議?
傑佛瑞·辛頓:我不確定自己是否適合給出建議,但我通常會給出的建議是:如果你有一個想法,並且你認為它是正確的,但它又與大多數人的看法相悖,那麼在你想清楚它錯在哪裡之前,不要輕易放棄。
因為大多數時候,你所持有的這類與眾不同的想法,其實都是錯誤的。可能是你忽略了某些因素,或者對某些問題理解不夠深入。但極少數情況下,你會遇到一個與眾不同且正確的想法。除非你堅持自己的信念,不斷探索,直到找到它錯誤的原因,否則你永遠不會發現那個正確的想法。同時,你也應該忽略別人的質疑和否定。我很擅長忽略別人的看法。
盧保獎:科學家在社會中有什麼責任?
傑佛瑞·辛頓:我認為,相比於政治家和普通大眾,科學家們對人工智能這項技術的本質有著更深刻的理解。當然,科學家之間也存在分歧。仍然有一些科學家認為,這些大型聊天機器人並沒有真正理解它們所說的話。儘管有大量的證據表明它們確實具備理解能力,但一些科學家仍然堅持認為這隻是一種統計學的技巧。
盧保獎:回顧您的職業生涯,有什麼可以做得不同的地方嗎?
傑佛瑞·辛頓:我希望自己能更早地開始關注人工智能帶來的生存威脅。我過去一直認為,超級人工智能還很遙遠,我們可以以後再考慮這個問題。而當時的首要任務是讓這些人工智能變得更加智能。我真希望自己能更早地思考這個問題,即人工智能發展到一定程度後可能會帶來什麼。
回顧 20 世紀 50 年代初圖靈的著作,他談到了創造比人類更智能的機器。他有一句話,大意是,當然,當機器變得比我們更聰明時,我們就「完蛋了」。他雖然沒有明確這樣說,但他的話語中暗示了這一層意思。然而,大多數人直到問題迫在眉睫時才開始思考這個問題,而問題是,現在這個問題已經非常接近了。所以我希望自己能更早地開始思考這個問題。
盧保獎:您打算如何使用獎金?
傑佛瑞·辛頓:我將我個人獲得獎金的一半捐贈給加拿大的一個組織,該組織致力於培訓原住民社區的居民掌握安全飲用水生產技術。這樣做的好處是,接受培訓的人們可以留在自己的社區,並為社區提供安全的飲用水。在加拿大這樣一個富裕的國家,例如在安大略省,仍然有 20% 的原住民社區無法獲得安全的飲用水,這簡直是難以置信的。
我對這個問題深有感觸,因為我曾在秘魯收養了一個孩子,並在那裡生活了兩個月。秘魯的自來水是不能直接飲用的,它是有毒的。因此,如何獲得安全飲用水成為了你生活中的頭等大事。這確實給日常生活帶來了巨大的額外負擔。在加拿大,仍然有人需要遭受這樣的困境,這太不應該了。所以我將一半獎金捐給了這個組織。
至於另一半獎金,早在 20 世紀 80 年代,我曾與泰利·塞諾夫斯基合作研究玻爾茲曼機理論,特裡實際上是霍普菲爾德的學生。我們在玻爾茲曼機理論的研究中貢獻相當,可以說,沒有與他的交流,就不會有我的理論,反之亦然。泰利最初是一名物理學家,後來轉向神經科學研究。我們當時認為,玻爾茲曼機一定揭示了大腦的工作原理。
因為它是一個如此精妙的學習算法,我們深信它必然與大腦的工作方式有關。我們甚至認為,我們可能會因為發現大腦的工作原理而獲得盧保生理學或醫學獎。我們在 20 世紀 80 年代曾達成一個協議,如果盧保獎只頒發給我們中的一人,我們將平分獎金。所以,當盧保獎出乎意料地頒發給我,並且獲獎理由之一是玻爾茲曼機時,我立即聯繫了泰利,詢問他希望我將屬於他的一半獎金寄到哪裡。但他表示,他覺得接受這筆錢不太合適,因為這次盧保獎的表彰不僅僅是因為玻爾茲曼機,也包括了其他他參與度較低的後續研究成果。
因此,他拒絕接受這筆錢。最終,我們達成了一個折衷方案,我用我那部分獎金的一半,設立一個以泰利·塞諾夫斯基命名的獎項,用於獎勵年輕研究人員,特別是那些對大腦工作原理提出「瘋狂」理論的年輕研究人員,就像我們當年一樣。這個獎項將在我們研究領域的年度會議上頒發。我認為這是一個很好的折衷方案。我認為泰利完全有資格成為盧保獎的第三位獲獎者,但他最終沒有入選。我對此並沒有抱怨,但他的確有這個資格。通過設立這個獎項,也是為了肯定他所做出的巨大貢獻。
採訪影片鏈接:https://www.youtube.com/watch?v=66WiF8fXL0k
由 CSDN&Boolan 聯合舉辦的「2025 全球機器學習技術大會」將於 4 月 18-19 日在上海隆重舉行。大會雲集院士、10 所高校科研工作者、近 30 家一線科技企業技術實戰專家組成的超 50 位重磅嘉賓。他們將以獨特的視角,解讀智能體、聯邦學習、多模態大模型、強化學習等前沿議題。無論你是科研學者、技術專家,還是行業從業者,都將在這裏收穫前沿洞見和實踐經驗,共同推動 AI 時代的技術變革與應用落地。