各路大佬紛紛給 AGI 立下「最後期限」,27 歲創始人已經給 AI 準備好「人類最終測試」!

作者 | Eric Harrington

出品丨AI 科技大班營(ID:rgznai100)

這幾天,X 上的網民們整理出來一張圖,總結了 AI 圈的各種名人對 AGI 實現時間的預測:

這幾天X 上的網民們整理出來一張圖,總結了 AI 圈的各種名人對 AGI 實現時間的預測

  • OpenAI 創始人兼首席執行官 Sam Altman 曾表示對 2025 年實現 AGI 充滿期待。這句話的最早出處現在已經很難找到了——因為他幾乎每次採訪都會說一遍。以至於 OpenAI 的新任產品官現在也對這個時間深信不疑,可以回顧我們之前整理的《Sam Altman 也不得不服Google的這款 AI 應用?OpenAI CEO 對話 CPO,揭秘產品開發背後的故事》。

  • 埃隆·馬斯克(Elon Musk),SpaceX 創始人、X 公司首席執行官……哦不對,現在應該叫他「效率部馬部長」。總之,馬斯克曾經預測過,最遲到 2026 年就會出現 AGI,他在Twitter上偶爾也會複述這個觀點。比如最近一次,就是馬斯克在直播肝《暗黑破壞神 4》榜一的時候「順便」提到的。

  • Anthropic 創始人 Dario Amodei 對 AGI 這個詞本身持懷疑態度,但根據目前的趨勢,他預計 AGI 將在 2026 年實現。近期,我們也整理過《宿敵對決!OpenAI & Anthropic 首席產品官萬字訪談:「現在的模型並不是受限於智能水平,而是受限於評估方法」》一文,歡迎回顧。

  • 《奇點臨近》作者、未來學家雷·庫茲韋爾(Ray Kurzweil)在 1999 年預測 AGI 將於 2029 年實現。這個二十五年前的預測其實非常的激進,因為庫茲韋爾當年還說「2030 年之後,人類將逐漸永生」——相比之下,AGI 都不算什麼了。

    順帶一提,在 2017 年美國的 SXSW 大會上,庫茲韋爾還對這個預測做出了一個更精準的描述:「到 2029 年,計算機將擁有與人類同等水平的智能,這會導致計算機擁有人類智能,我們將它們放入我們的大腦,將它們連接到雲端,擴展我們的能力——這不僅僅是未來的場景。它已經存在,而且會加速發展

  • 人稱「AI 教父」的圖靈獎得主 Geoffery Hinton 同時也是今年的盧保物理學獎得主。關於他的預測我其實沒有找到像圖里一樣準確到 2029 年的描述,而是翻到了以下言論:

  • 這句話是針對「人工智能超越人類智能」的時間,Hinton 以前的預測是「30-50 年」,而他去年的時候改口,說變成了「5-20 年,但不太有把握」。Hinton 還說,我們生活在一個非常不確定的時代。他關於數字智能超越我們的預測可能完全錯誤,沒有人真正知道答案,而這就是我們現在應該擔心的原因。

  • 最後便是今年的盧保化學獎得主,DeepMind 創始人、Google DeepMind 首席執行官 Demis Hassabis。他認為 AGI 大約需要 10 年時間,且還需要 2 到 3 項重大創新。今年在各種播客上,Demis 其實都強調過「十年實現 AGI」這個觀點。

此圖一出,自然是引起了 X 上一片嘩然,網民們的主要觀點分為:1、Sam Altman 又在炒作了;2、Altman 和馬斯克都在炒作,科學家是對的;3、前四個人全都在炒作,只有兩位盧保獎得主是對的;4、圖上這六個人全都在炒作(……)

畢竟放在前幾年,庫茲韋爾關於「2029 年實現超越人類智能」的觀點還被稱作不切實際。結果沒過多久,庫茲韋爾反而變成了「保守派」,讓人啼笑皆非。

此外,預測過 AGI 時間點的名人自然不止有這幾位。評論區有人指出,NVIDIA 創始人兼首席執行官黃仁勳今年在史丹福大學的經濟論壇上就提出過一個引人注目的觀點:「AI 將在五年內通過人類測試。

掐指一算,那不就是 2029 年嗎?看來黃仁勳和庫茲韋爾一樣,是「保守派」。

今天,我們在 Scale AI 創始人 Alexandr Wang 的最新演講內容中也發現了類似的觀點,而他的說法則比較奇特:由於 AI 基準測試已經趨於飽和,Scale AI 正在與 AI 安全中心合作,進行人類的最後考試——有史以來最難的測試——一旦 AI 通過考試,我們基本上就擁有了 AGI!」

這個就很有意思了。不用等個五年十年,只要通過【有史以來最難的測試】,AI 就能變成 AGI?

首先瞭解一下背景,看看這話的可信度有多少:Scale AI 可不是一般的公司 —— 這是一家把「給 AI 模型提供訓練數據」做到估值 138 億美元的獨角獸,創始人 Alexandr Wang 是 27 歲的美籍華裔,因為這一手生意譽為「下一個朱克伯格(Meta 首席執行官、Facebook 創始人)」。

說到小紮,他倒是沒有給過 AGI 的確切時間,而是在以前的採訪經常表示 Meta 會先把 AGI 給做出來:「到今年年底,Meta 將擁有超過 340,000 個 Nvidia 的 H100 GPU……我們已經建立了這樣(實現 AGI)的能力,其規模可能比任何其他公司都要大。

言歸正傳,Scale AI 不只滿足於做「數據工廠」,在 Alexandr Wang 看來,通往 AGI 的道路上最大的瓶頸就是數據,而他要做的就是確保「在達到 GPT-10 之類的模型的過程中,我們不應該受到數據的限制」。

以下是 Alexandr Wang 的演講內容,看看這位 27 歲的億萬富翁,要如何給 AI 舉辦「人類最後的考試」

我們的算力已經停滯了一段時間?

我認為,對 AI 行業內的很多人來說,我們顯然已經站在了 AGI 或 ASI(隨你怎麼稱呼)的門檻上。這項技術正在變得非常強大,而且會很快變得更加強大。所以我們想趁此機會回顧一下現狀。接下來,我們會深入探討每個具體話題。

我的父母都是洛斯阿拉莫斯國家實驗室的科學家。我認為,這是最後一個具有這種技術浪潮特徵的重大項目。核武器是一項非常先進的技術,人們在當時並不知道它是否真的可行。在路徑明朗之前,原子彈就是這種帶有推測性的東西。它對國家安全和地緣政治有著非常重要的影響,同時也引發了許多關鍵的倫理問題——而現在,關於 AI 這項技術,也有很多重大問題懸而未決。

我曾翻閱過曼哈頓計劃的科學家們的各種引述。其中奧本海默的兩句話特別引人注目。「這是一個深刻而必然的真理:科學中的深層發現並非因其有用而被發現。它們被發現是因為有可能被發現。當你看到某樣技術上誘人的東西時,你會繼續做下去,只有在取得技術成功之後,你才會爭論該怎麼處理它。原子彈就是這樣的。」

這些話在用於思考當今的 AI 時特別貼切。

回顧現代 AI 的歷史,最初的深度神經網絡,沒人真正想到它最終會發展成這些非常強大的 AI 系統。雖然現在關於 AI 安全的討論很多,但我們已經走到了這一步(指前麵類比的「要不要完成核武」的這一步)。我們所處的位置就是這裏。我們正站在這項極其強大的技術的門檻上,面對著如何恰當駕馭它的諸多懸而未決的問題。為了理解這一點,也許我們有必要先從宏觀角度看看作為一項技術的 AI。

眾所周知,AI 由三大支柱構成——算力、數據和算法。這三大支柱共同推動了我們所看到的所有 AI 進步。AI 作為一項技術有一個很酷的特點,這也使得它不太可能像核聚變等其他重大技術那樣容易陷入瓶頸:這三大支柱中任何一個的進步都會推動 AI 這項終極技術向前發展。增加算力會推動 AI 進步,數據創新會推動 AI 進步,算法創新也會推動 AI 進步。我認為,OpenAI o1 就是最近的一個很好的例子。但實際上,我們在算力方面已經停滯了一段時間了——你沒聽錯,算力已經相對停滯了一段時間。

但是算法的突破意味著你可以得到性能顯著提升的模型。這種「三大支柱中任一進步都能推動技術發展」的普遍範式,正是這一點讓我覺得,從現在開始就將是 AI 的「永恒盛夏」(對標以前漫長的「AI 寒冬」)。而且說實話,新模型出現的速度確實驚人。我們 Scale AI 的工作之一是評估新模型,但要跟上所有新發佈的大語言模型的節奏,真的很睏難。

砸錢的階段結束了,接下來才該開始拚創新!

2012 年,人類實現了第一個真正意義上的大規模深度神經網絡,就是為 ImageNet 訓練的 AlexNet。相比現在的標準,2012 年到 2018 年的日子看起來頗有田園牧歌的感覺。那時候偶爾會有一個大模型出現,然後所有人都在大型會議上討論它——現在呢?每一場會議結束後就會冒出 20 多個模型,各種優秀的開源模型、多模態模型、優秀的圖像模型、影片模型和新的推理模型如潮水般湧現。

所以為了幫助理解,我喜歡把現代 AI 時代分為三個主要階段:第一個階段是研究階段,大約從 2012 年持續到 2018 年。也就是從第一個深度神經網絡 AlexNet 開始,它最初是用來做基本的圖像識別的。那是一個 AI 只能告訴你 YouTube 影片里有沒有貓的時代,而這在當時已經是一項令人難以置信的強大功能了。

一直到第一個 GPT 模型出現,也就是由 OpenAI 的 Alec Radford 訓練的 Transformer 和所謂的 GPT-1(當時只叫「GPT」,沒有寫「1」)。這開啟了下一個階段:規模化(Scaling)

所以,頭六年,2012 年到 2018 年,是研究階段。然後從 2018 年到 2024 年,也就是今天,是規模化階段。在這段時期,投入到這些模型的資源增長了一萬多倍。去年,或者說今年,投入到訓練這些模型的總資金大約是 2000 億美元。這帶來了性能的巨大提升。我們從默默無聞的 GPT-1,發展到了現在在數學和計算機科學領域達到博士水平的 o1 模型。

而 o1,我認為它開啟了新階段——創新時代(innovation era),這個階段將持續到超級智能出現為止。我們將拭目以待這需要六年還是更短的時間。這個階段的標誌是大家已經在模型上投入了2000 億美元而事實上大公司都無法投入比這更多的資金了我們不可能在模型上投入200 萬億美元所以從數量級來說能繼續規模化的空間已經很有限了投錢的工作結束了,才會真正需要相應的創新來配合增強推理能力和測試時計算能力肯定是其中之一我們認為可能還需要其他幾項創新才能讓我們達到超級智能

說到這裏,我想不要臉地插播一下——我覺得 Scale AI 很幸運,能夠真正助力這些驚人的進步。回顧計算機視覺和圖像識別時代,我們很自豪能與許多大型自動駕駛項目合作,現在已經取得了成果——Waymo 的 L4 級自動駕駛汽車已經在舊金山街頭行駛,這是一個相當了不起的里程碑。顯然,我們也與 OpenAI 和許多實驗室合作,參與了這些模型的整個發展過程。從 GPT-2 上的首次 RLHF(人類反饋的強化學習)實驗,一直到現在極其強大的推理模型和智能體模型等等。

為了讓未來的發展更加具體,我接下來將一一列舉,通向超級智能的道路上的四大挑戰。

人類有史以來最難的測試……

挑戰一是數據瓶頸這個問題在六個月前可能被炒得最熱,但確實是個真實的問題。基本上,我們在某個時候就會用完所有可用於訓練這些模型的公開數據。Epic AI 估計這個時間點在 2027 年到 2030 年之間。如果你和業內人士交流,他們會說比這更早。那麼我們該怎麼辦?好消息是,我們還有主動權。讓我談一談幾個主要的解決方案。

我們認為突破數據瓶頸需要前沿數據,這是一個包羅萬象的主題,包括各種形式的合成數據,以及更高級的數據類型,還有企業數據,這些數據類型能讓我們更有效地學習高級概念,比如推理能力、多模態、智能體數據。此外具身智能以及其需要的現實數據將是一個重要領域,後文會展開討論這點。總之,絕大多數數據仍然是私有和專有的,是被鎖起來的。

比如說,GPT-4 的訓練數據集大約是 0.5 PB。而摩根大通的專有數據集,超過了 150 PB。他們只是眾多大企業中的一個。還有大量的數據就干躺在那裡,從未被用於任何主要的訓練。

第二個挑戰與評估有關這是 AI 界經常討論但其他人可能不太理解其重要性的問題。評估是我們用來衡量這些模型進步的標尺和激勵機制。所以現在評估既過擬合又飽和的事實——所謂過擬合,是指它們有點被玩明白了,而飽和是指模型在所有評估上都已經做得很好了——這些都是大問題。這些問題可能會導致研究變得更加漫無目標。因此,建立正確的評估體系非常重要。

我們之前有一個叫做 GSM1K 的研究結果,我們發現許多模型實際上在某些開源評估上明顯過擬合。這是一個很嚴重的問題。如果沒有這個標準,就很難衡量進步。另一個問題是基準測試正在飽和。如果你看過去幾年的 MMU、數學、GPQA 等測試,模型的表現似乎達到了瓶頸。但這並不是因為模型沒有變得更好,而是因為這些評估已經不夠難了。

在 Scale AI,我們做了兩件事。首先,我們與 AI 安全中心的 Dan Hendricks 合作開發了一個叫做「人類最後的考試」的評估。我們正在從每個研究領域收集超難的研究問題,目的是創造人類有史以來最難的考試。我們認為,如果這個測試被解決了,且達到了飽和,我們可能基本上就實現了通用人工智能。所以我們可以期待這一天的到來。

此外,我們還構建了所有的 SEAL 評估,即私人專家評估,用來測試這些模型的全部能力。這是一個我們特別想尋求合作的領域,它可以真正規劃出如何衡量這些模型的超級高級能力。

第三個挑戰是,儘管智能體(Agent)是每個人都在談論的東西,但它們還沒有真正出現,也不夠可靠。這些自主 AI 智能體與自動駕駛汽車的 L1 到 L5 進階過程有很強的相似性。這個類比非常貼切:L1 可能就是一個聊天機器人,L2 是一個你可以尋求各種幫助的助手。然後我們正在探索從 L3 到 L5 自主性這條有趣的路徑。比方說,L3 智能體自主性可能是指能夠用於工作流程特定部分的智能體,你可以開始把它們用作可以開始依賴的工具。L4 自主性可能會顛覆這一點。

所以,即使是在 L3 和 L5 之間的路徑,我們認為進一步細分也很重要。在這個挑戰中,我們認為有一些必要條件,或者說前進的路徑:

  • 一、讓模型在每個領域都具備推理能力。這些模型的高級推理能力最終將在基本上每個領域都能發揮作用。現在,它們在數學和物理領域表現得很好,最終將擴展到所有領域。這將會帶來——這將成為經濟價值的巨大驅動力。因此,每個領域都將具備高級推理能力。

  • 二、能夠實現遠程操作智能體的基礎設施這實際上是我們在Scale AI 特別關注的事情設想一下:在未來當你有這些能做大多數事情但可能偶爾遇到難題的智能體時它們該如何與人類互動?它們該如何向人類求助?我認為這樣說一點都不誇張在未來我們大多數人可能就只是AI 智能體的遠程操作員而不是其他什麼角色所以,這是技術路徑中的一個關鍵步驟

然後就是顯而易見的主線任務:更好的強化學習以及新的數據類型,最終將推動這些模型把「能動性」變成一項核心能力。

挑戰四——顯然,芯片和能源是一個很大的瓶頸。我認為,對未來五年為這些數據中心供能所需的能源的一個非常保守的估計是 100 吉瓦。也許這個估計甚至遠遠不夠,但這相當於 20 個芝加哥市的能源消耗,需要投入數萬億美元的資本支出。所以這顯然是一個巨大的挑戰。在這裏我沒有解決方案,只是指出這個挑戰。

最後,讓我分享幾個令人振奮的 AI 發展前景。

第一,顯然是具身智能和機器人技術。我覺得馬斯克的發佈會很酷。它顯而易見地展示了一個事實:讓機器人勝任各種體力工作的目標是可以實現的。更好的說法是,我們可以讓這些模型能夠長時間思考來解決極其困難的問題,比如治癒癌症,或者解決千禧年數學難題。

第二,是 AI 研究員智能體的出現——能夠真正擔當 AI 研究工作的模型。這個目標需要多久才能實現?沒人說得準。但我認為,這將是我們見證的第一個真正的 AI 自我進化形式,它必將成為模型發展歷程中的關鍵轉折點。讓我們回顧一下:在前方等待著我們的,是一個個激動人心的技術里程碑,是無數令人振奮的機遇。

但要實現這些願景我們還有很多工作要做。我們需要突破計算和能源基礎設施的瓶頸需要攻克前沿數據的難題需要解鎖私有數據源的潛力需要建立更有挑戰性的評估基準。當然還有大量AI 政策問題亟待解決最後我要說我們正身處人類歷史上最激動人心的時期。這次演講的核心就是:我們每個人都是這個偉大項目的參與者讓我們攜手共進用正確的方式推動超級智能的發展。

參考鏈接:https://www.youtube.com/watch?v=eRYP2arKkk0