Demis Hassabis:人類的未來是實現 AGI 自由的未來
揭露 DeepMind 對 AGI 的思考與想像。
作者丨劉潔
編輯丨岑峰
DeepMind的創始人Demis Hassabis加入AI行業大辯論來分享新觀點了。
隨著AI技術的突飛猛進,行內人對AI的看法也越來越多樣複雜。前有馬斯克四處宣揚「AI可能使人類滅亡」,後有Andrew Ng嗤之以鼻「擔心超級智能AI的人就像是在擔心火星人口太多」,還有奧特曼堅持「加速AI研發才能解決全球挑戰」,李飛飛反復強調「必須確保AI為人服務」。
各種論點爭得熱火朝天,Demis Hassabis也閃亮登場,發表了自己的觀點。
Hassabis冷靜地指出,現在有些初創公司和投資者已經被 AI 的短期潛力衝昏了頭腦。雖然AI 未來的發展潛力無限,但目前那些聽起來像科幻電影的目標,其實大多隻是噱頭,技術遠未成熟。要識別這些 AI 公司宣傳是真是假,Hassabis 的秘訣是:瞭解他們的技術背景和趨勢,儘量遠離那些盲目跟風的公司。
面對當前的 AI 熱潮,Hassabis心情複雜。一方面,他懷念AI尚未受到太多關注時的寧靜,沒有那麼多喧囂和干擾;另一方面,他也認可如今的關注推動了 AI 在現實世界中的積極應用。
雖然Hassabis支持 AI 開源,但也清醒地意識到這背後的巨大風險,特別是 AI 被用作不良目的的潛在威脅。他提出了一個折中方案:延遲發佈開源模型,讓它們落後於前沿技術一兩年,以減少安全隱患。
Hassabis特別強調了對AGI和AI管控的擔憂。他認為開源模型一旦發佈便無法收回,需更嚴格的安全措施和測試環境。他提議開發 AI 助手以監控和測試下一代 AI 系統,同時建議在發佈 AI 系統時附帶使用說明,幫助用戶理解其功能和風險。
雖然也有擔憂,但Hassabis對實現AGI的未來抱有極其樂觀的態度。他相信,AGI將幫助人類解決重大科學難題,通過幫助人類治療疾病、開發清潔能源等方式提升人類社會生活質量。Hassabis描繪了一個夢幻的未來場景,「未來的AI將讓我們徹底告別工作,盡情享樂,專注於探索生活的意義。」
以下是 Demis Hassabis 的播客內容,AI 科技評論作了不改原意的整理:
1
炒作還是低估
Hannah Fry:我想知道,現在公眾對AI的興趣激增,你的工作是更容易還是更困難?
Demis Hassabis:我認為這是一把雙刃劍。我認為這更難,因為整個領域都有太多的審查、關注,而且還有很多噪音。其實,我更喜歡之前關注的人更少的時候,也許會更專注於科學。
但這也是好事,因為它表明該技術已經準備好以許多不同的方式影響現實世界,並以積極的方式影響人們的日常生活。所以我認為這也很令人興奮。
Hannah Fry:您對這件事如此迅速地引起公眾的想像力感到驚訝嗎?我的意思是,我猜您預料到了人們最終會加入到AI行業。
Demis Hassabis:是的,完全正確,尤其是像我們這些一樣致力於這個工作許多年,甚至幾十年的人。所以我想在某個時候,公眾會意識到這個事實。事實上,每個人都開始意識到AI有多重要。
但看到它真正實現併發生仍然是相當超現實的。我想這是因為聊天機器人和語言模型的出現。每個人都在使用語言,都能理解語言。因此,對於公眾來說,這是一種簡單的辦法來理解並衡量人工智能的發展方向。
Hannah Fry:我想問你一些關於炒作的問題。你認為我們現在所處的位置,目前(AI)的情況是被誇大了還是低估了?或者它只是大肆宣傳,也許方向上發生了錯誤。
Demis Hassabis:是的,我認為更多的是後者。所以我認為在短期內,這是過度炒作。人們聲稱可以做各種不能做的事情。有各種各樣的初創公司和風險投資公司在追逐尚未準備好的瘋狂的想法。
另一方面,我認為它仍然被低估了。我認為即使是現在認為它仍然被低估了,或者說甚至現在都還沒有得到足夠的重視。當我們進入AGI時代和後AGI時代會發生什麼?我仍然覺得人們還不太瞭解這將會是多麼的巨大(的一件事)。因此也沒有理解其責任。
所以兩者都有,真的。目前短期內它有點被誇大了,我們正在經歷這個循環。
Hannah Fry:不過我想就所有這些潛在的初創公司和風險投資公司等而言,正如你所說,你在這些領域已經工作和生活了幾十年,有足夠的能力去辨別哪些初創公司有現實的目標,哪些不是。但是對其他人來說,他們要如何區分什麼是真實的,什麼是虛假的?
Demis Hassabis:我認為顯然你必須進行完全的技術調查,對技術和最新趨勢有一定的瞭解。
我認為也可以看看說這些話的人的背景,他們的技術背景如何,他們是從去年才加入AI領域的嗎?可能他們去年在做加密貨幣。這些可能是他們在跟風追隨潮流的一些線索。當然,這並不意味著他們不會有一些好的想法。
很多人都會這樣做,但我們應該說,這更像是彩票。
我認為當一個地方突然受到大量關注時,這種情況總是會發生的,金錢也會隨之而來。每個人都感覺自己錯過了什麼。這創造了一種機會主義的環境,這與我們這些幾十年來一直專注於深度技術、深度科學的人相反。我認為這正是我們需要的理想方式,尤其是當我們越來越接近AGI時。
2
開源與AI 智能體的雙刃劍
Hannah Fry:我想到的下一個問題是關於開源的。因為當事情掌握在人們手中時,正如你所提到的,真正非凡的事情可能會發生。我知道Deep Mind過去有很多開源項目,但現在隨著我們的前進,這種情況似乎略有改變。所以請告訴我您對開源的立場。
Demis Hassabis:正如你所知,我是開源和開放科學的大力支持者。
我們已經放棄並發佈了我們幾乎所做的所有事情,包括transformers和AlphaGo之類的東西。我們在Nature和Science上發表了所有的東西。正如我們上次介紹的那樣,AlphaGo是開源的。這是不錯的選擇,你會覺得它是絕對正確的。
這也是所有工作都能順利進行的原因,因為通過共享信息,技術和科學才能盡快進步。所以,我們幾乎總是這樣做,這是一個普遍的好處。
科學就是這樣運作的。例外的情況是,當你在面對AGI和強大的AI時(確實會陷入這種情況),就是當你擁有雙重用途的技術時。你想要讓所有的使用案例都從好的方向出發,所有真正的科學家都能善意地採取行動,讓技術建立在想法之上,對想法進行批判等等。這樣,這才是社會進步最快的方式。
但問題是,如何同時限制不良分子的訪問權限,他們會拿走相同的系統,將它們重新用於不良目的,把它們濫用在武器系統等地方。這些通用系統可以像這樣被重新調整用途。
現在還好,因為我認為現在的系統沒有那麼強大。但是在兩到四年的時間里,特別是當你開始使用智能體系統或者用AI做一些行為時,那麼我認為,如果它被某人或甚至是流氓國家濫用,可能會造成嚴重的傷害。而且我沒有辦法解決這個問題。
但作為一個社群,我們需要思考這對開源意味著什麼?或許我們需要對前沿模型進行更多的檢查,然後只有在它們發佈一兩年後,才能開源。
這就是我們正在遵循的模式,因為我們有自己的Gemini開放模型,名為Gemma。因為它們更小,所以它們不是前沿模型。它們的功能對開發人員仍然非常有用。因為它們有更少的參數數量,很容易在筆記本電腦上運行。雖然它們不是前沿模型,但它們只是不如最新的,Gemini 1.5那麼強大。
所以我認為這可能是我們最終會採取的方法,我們將擁有開源模型,但它們會落後於最先進的模型,也許落後一年,這樣我們就可以真正評估通過以下方式進行公開評估:用戶瞭解這些模型可以做什麼,前沿模型可以做什麼。
Hannah Fry:我想你真的可以測試出隨機的邊界在哪裡。
Demis Hassabis:是的,我們會看到邊界在哪裡。開源的問題是,如果出了問題,你就想不起來了。
而在閉源模型方面,如果你的操作者開始以不良方式用它,你只需要像關閉水龍頭一樣關閉它即可。在特殊情況下,你可以把它關閉。
但你一旦開源了某些東西,你就無法收回了。所以這是一個單向門。所以當你這樣做時,你應該非常確定。
Hannah Fry:但是在一個模型中有包含AGI的可能性嗎?
Demis Hassabis:這是一個完全獨立的問題。我認為當你開始談論強大的AGI級別的時候,我們現在不知道該怎麼做。
Hannah Fry:那關於中間的過渡呢?
Demis Hassabis:關於這一點,我認為我們對於如何做到這一點有很好的想法。其中之一就是一個類似安全沙盒的東西。我想在遊戲環境或尚未完全聯網的互聯網版本中測試智能體行為。在這個領域,我們可能會借鑒金融科技領域的理念,構建這類系統。
但是,我們也知道,這並不足以容納 AGI(一種可能比我們更聰明的東西)。所以我認為我們必須更好地理解這些系統,這樣才能為人工智能設計協議。到那時候,我們就會有更好的辦法來控制它,也有可能使用AI和工具來監控下一版本的AI。
Hannah Fry:關於安全問題,我知道您是2023年由英國政府在布萊切利公園舉行的AI安全峰會的重要參與者。從外界來看,我認為很多人只是在說監管這個詞,就好像它會自己進來解決一切問題一樣。但是你對於如何構建監管體系有什麼看法?
Demis Hassabis:我認為各國政府加快參與其中的速度是件好事。
最近公眾對AI的興趣爆發的一個好處就是,政府正在關注這個話題,尤其是英國政府。我認為這很棒,我和他們談過很多次,還有美國政府。他們的政府工作人員中有很多非常聰明的人,他們現在已經對這項技術瞭解得很清楚了。
我也很高興看到英國和美國成立了人工智能安全機構,我認為許多其他國家也會效仿。我認為在AI風險變得非常高之前,這些都是我們需要遵守的很不錯的先例和協議。
這也是一個證明的階段。我認為國際合作確實是必要的,最好是圍繞監管、安全護欄和部署規範等方面進行合作。
因為AI是一種數字技術,所以很難將它控制在國界內。當我們開始接近AGI時,我的觀點是你必須這樣做。因為技術變化如此之快,我們必須非常靈活和輕鬆地進行監管,以便適應最新技術的發展方向。
如果你在五年前對AI進行監管,你監管的東西與我們今天看到的完全不同。而且五年後可能會再次不同,這些基於智能體的系統可能是風險最高的系統。所以現在我建議加強已經存在的領域的現有法規,比如健康、交通等。
我認為可以像之前為互聯網更新一樣進行實時更新。同時,做一個像簡報一樣的東西,這也可能是我要做的第一件事情。簡報用於確保人們能理解並測試前沿系統。
當人們對AI系統的使用變得更加清晰和明確時,就能更好地圍繞這些行為對AI系統進行監管。
3
AI 智能體幻想成真?
Hannah Fry:你可以給我們概述一下什麼是Grounding嗎?
Demis Hassabis:Grounding是80年代和90年代在特斯拉和麻省理工學院建立經典的AI系統,一些大型邏輯系統,的原因之一。你可以把它想像成一個單詞與其他單詞關聯的巨大語言庫。
比如說,「狗有腿」就在這個庫裡面。但問題是,如果你給它展示了一張狗的圖片,它根本不知道這些像素的集合指的是那個符號。這就是Grounding問題。
在語言庫裡面有一個象徵的抽像表達,但是無法確定這個抽像的東西在現實世界真正意味著什麼。人們嘗試解決這個問題,但永遠也無法做到完全正確的對應。
當然,現在的系統不是這樣的,它直接從數據中學習,所以從某種程度上來說,現在的系統從一開始就建立了這種聯繫。
Hannah Fry:Astra計劃,Google新的通用AI助手項目,可以接收影片和音頻數據。之前你舉了Astra幫你記住眼睛放在哪裡的例子,所以我想知道這個產品的定位,是之前的Google眼鏡的一個全新版本嗎?
Demis Hassabis:當然,Google在開發眼鏡型設備上有著悠久的歷史,可以追溯到2012年,在這方面可以說是遙遙領先的,但他們只是缺少這樣一種技術。
通過Astra,你能真正理解,一個AI 智能體或者說AI助手所看到的一切。所以我們對數字助理能夠陪伴您並瞭解您周圍的世界感到非常興奮。當你使用它時,它真的能給你提供非常自然的體驗。
Hannah Fry:大語言模型還有一段路要走,這些模型還不太擅長一些事情。
Demis Hassabis:是的。實際上這就是現在主要的爭論。最新的這些模型其實是從五六年前發明的技術中誕生的。問題是,它們仍然有很多問題需要改進。我們都知道,大語言模型會產生幻覺,還不擅長做規劃。
Hannah Fry:什麼意義上的規劃?
Demis Hassabis:長期規劃。他們無法解決問題,尤其是一些長期的事情。如果你給它一個目標,它們其實無法真正為你在世界上採取行動。它們很像被動的問答系統。你向它提出問題,然後它會給你某種回應,但它們無法為你解決問題。
你可能會想像這樣一個場景。你對AI助手說給我計劃意大利的假期,預訂好所有的餐館和博物館。它知道你喜歡什麼,隨後它就會幫你處理好機票等所有東西。
其實現在的AI助手做不到這樣的事情。但我認為這是在下一個時代可以實現的,我稱之為「基於智能體的系統」或「具有類似智能體行為的代理系統」。這是我們所擅長的東西。
這也是我們從過去做遊戲智能體AlphaGo開始就一直想要做的事情,我們正在做的很多事情都是將這些我們知名的工作成果與新的多模態模型結合起來。我認為這將會是下一代系統,你可以把它看作是Alpha和Gemini的結合。
Hannah Fry:是的,我猜AlphaGo非常擅長做規劃?
Demis Hassabis:沒錯,它非常擅長做規劃,當然僅限於遊戲領域。我們還需要把它推廣到日常工作和語言的一般領域。
4
AGI的未來
Hannah Fry:在你描述的未來圖景中,如果我們到了AGI的階段,專注科學研究的機構還存在嗎?
Demis Hassabis:我認為是的。在AGI階段,社會、學術界、政府和工業實驗室都會在一起合作進行研究。我認為這是我們到達最後階段的唯一途徑。如果是在AGI之後,我認為我們可以用它來回答一些物理學中的原理、現實的本質、意識等方面的最基本的問題。
Hannah Fry:你認識計算機科學家Stuart Russell嗎?他告訴我他有點擔心,一旦我們進入人工智能時代,我們可能會變得像過去的皇家王子一樣,那些從來不需要登上王位或者做任何工作的人,只是過著肆無忌憚的奢華生活而沒有任何目的。
Demis Hassabis:是的,這是一個有趣的問題。它超出了AGI的範圍,更像是人們稱之為ASI的超級AI。
那時候我們應該擁有徹底的富足。假設我們公平公正地分配這些資源,那麼我們將有更多的自由來選擇做什麼。到那時候,意義將成為一個重大的哲學問題。我們需要哲學家,甚至是神學家,去思考這個問題。
回到我們之前說的炒作,我認為即使那些炒作也絕對低估了AI可能帶來的轉變。我認為在極限範圍內會變得特別好。我們將會治癒許多疾病或者說所有的疾病,解決我們的能源問題、氣候問題。
接下來的問題就只是,這有意義嗎?