英偉達千萬投資後,27 歲 CEO 豪言:前端工程師三年內消失,700 天后數學家失業

我給數學家們的時間是 700 天。這就是人類作為宇宙已知領域中數學王者的賸餘時間。

作者 | Will Bryk

責編 | Eric Harrington

出品丨AI 科技大班營(ID:rgznai100)

像前端工程師這樣的崗位可能在三年內就會消失。這聽起來很極端?其實不然——三十年前本來也沒有前端工程師這個職位。

這個驚人預測出自 Exa CEO 威廉·布瑞克(William Bryk)之口。前段時間,這家由他與華人天才極客 Jeff Wang 在哈佛創立的 AI 搜索引擎公司 Exa,剛剛拿下了英偉達領投的 1700 萬美元 A 輪融資。

在矽谷的 AI 新貴中,這對創始人組合格外引人注目:27 歲的布瑞克提出了「史上最慢搜索引擎」的大膽理念——寧願花上幾分鐘返回精確結果,也不要毫秒級的膚淺匹配;26 歲的 Wang 則將向量數據庫技術推向了極限,讓 AI 真正讀懂互聯網內容。比方說,聖誕節的這幾天Twitter(X)上開始流傳 Exa 製作的一個「年度總結工具」,可以總結你在Twitter一年來的所有內容,各大博主玩的是愛不釋手:

圖源:歸藏老師圖源:歸藏老師
小編的個人Twitter被 Exa 評價最像馬斯克小編的個人Twitter被 Exa 評價最像馬斯克

Exa 的「Twitter年度總結」:https://twitterwrapped.exa.ai/

但比起搜索技術本身,布瑞克對 AI 未來的預測更令業界震驚:前端工程師職位將在 3 年內消失,2025 年底 AI 將能自動處理任何計算機工作。他還放話,「我給數學家們的時間是 700 天。這就是人類作為宇宙已知領域中數學王者的賸餘時間。」這句頗有《三體》里三體人向地球人宣戰的味道。

以下是布瑞克於聖誕前夜發佈的最新預言全文《AI 前夜的思考》,經 CSDN 精編處理,讓我們一同看看他這麼說的依據:

變革前夜

最近和幾位朋友聊起 OpenAI o3 模型,他們的第一反應都是難以置信:「大的要來了?」

沒錯,這一切確實要來了。未來幾年,我們將見證一場翻天覆地的變革。這不僅僅是一個歷史性的時刻,放眼整個銀河系,這都是一個重大轉折點。

讓人哭笑不得的是,對於這場即將到來的巨變,我們卻缺乏深入的討論。AI 實驗室諱莫如深,新聞媒體對此淺嚐輒止,政府更是一頭霧水。

更諷刺的是,人類文明發展的重大議題,居然要靠社交媒體上的表情包和梗圖來討論。這簡直像是一出荒誕劇,但現實就是如此。

接下來,我想分享一些個人對當前局勢的思考和見解 —— 權當是為 X 平台上的思想漩渦添磚加瓦吧。

在開始之前,我要強調:這些想法都是未經深入推敲的頭腦風暴。由於時間有限,很多觀點都沒能充分研究和論證,其中難免有不少謬誤。但我希望這些想法能給那些正在試圖理解這場變革的人帶來一些啟發。

讓我們開始吧。

模型突破與行業變革

說實話,o3 的出現本不該讓人感到意外。兩個月前,OpenAI 就公佈了測試時間擴展圖表。計算機發展史告訴我們,這些發展曲線往往都能變為現實,即便看起來再怎麼不可思議。真正令人震驚的是,這一切只用了短短兩個月。從大學水平到博士水平,AI 的進化速度快得讓人措手不及。對人類來說,漸進式的變革令人雀躍,但這種突飛猛進的躍遷卻讓人心驚膽顫。

未來的發展路徑其實已經呼之慾出。o3 這類模型最擅長優化那些能夠明確定義獎勵函數的任務。數學和編程這樣的領域,獎勵函數相對容易設計;而小說創作這樣的領域則難度更大。這意味著在短期內(一年之內),我們將看到能力分佈不均衡的模型。它們在數學、編程和一般邏輯推理上可能已達到接近通用人工智能的水平,但在創作文學作品時可能仍顯得平庸乏味。雖然更強的推理能力會讓模型在各個領域都表現得更加智能,但在那些未經強化學習訓練的領域——也就是訓練數據未覆蓋的盲區——它們仍會犯一些低級錯誤。從長遠來看(1-3 年),隨著我們不斷將新的領域(情感數據、感知數據等)納入強化學習訓練範圍,這些盲點終將被填補。到那時,除了像 Gary Marcus 這樣的頑固派,所有人都會承認這些模型已經具備了真正的通用智能。

AI 助手在 2025 年必將成為現實。以 o3 為代表的模型必然能夠自如地操作瀏覽器和應用程序,這類任務的獎勵模型設計相對簡單。更重要的是,自動化辦公這個市場潛力巨大,對於那些需要證明高額投入合理性的實驗室來說,這是一個絕佳的切入點。我敢打賭,到 2025 年底,你只需要一句話,就能讓電腦自動完成各種涉及網頁瀏覽、應用操作和數據處理的工作流程。

在所有即將被顛覆的學科領域中,數學可能是最容易被 AI 征服的。數學家們在符號世界里工作,幾乎不受物理世界的掣肘,這恰恰是大語言模型最擅長的領域。說到底,數學本身並不難,只是人類的大腦不夠用罷了。這一點在正則表達式的使用上也同樣明顯。

研究領域的巨變

一個關鍵問題是:製作研究級別的合成數據到底有多難?我的判斷是,沒有想像中那麼困難。對人類來說,博士級數學和研究員級數學的差別可能很大,但在 AI 眼中,這可能只是量級上的差異,只需要增加幾個數量級的強化學習訓練就能跨越。我給數學家們的時間是 700 天——這話聽起來瘋狂,但如果說 o6 模型無法超越數學家,聽起來同樣不可思議。所以和本文其他預測一樣,我對這個判斷的把握超過五成。700 天,這就是人類作為宇宙已知領域數學王者的賸餘時間。

目前的形勢下,軟件工程師又該何去何從?短期來看,這對我們來說簡直是天賜良機。每個程序員都相當於被空降了一個技術主管的位置,幹得漂亮。對於那些充分擁抱大語言模型的開發者來說,到 2025 年底,編程的感覺更像是在指揮一群小幫手完成各種任務。只要需求描述足夠清晰,o4 系統就能完成任何代碼提交,錯誤率低到完全可以接受。當然,這裏可能會遇到一個問題:模型的上下文窗口可能容納不下整個代碼庫,不過像 Sam Altman 這樣的行業領袖顯然已經意識到了這個問題。

那麼,AI 是否會在短期內取代所有軟件工程師呢?答案是否定的。軟件工程不僅僅是根據明確的需求提交代碼那麼簡單。與數學家不同,軟件工程師需要頻繁地與現實世界打交道,特別是要和其他人互動。工程師需要與客戶溝通以理解他們的需求,需要與團隊成員配合以滿足他們的要求。在設計架構或編寫代碼時,工程師需要考慮大量的組織背景因素。o4 模型還無法做到這一點。但它確實能幫助那些已經理解這些背景的工程師提高十倍的工作效率。

軟件行業的變革與重塑

如果軟件工程師的效率提升了十倍,是不是意味著我們需要的工程師會更少?從單個公司的角度來看,確實如此,因為精簡的團隊就能達到同樣的產出。但從全球範圍來看,對軟件工程師的需求可能反而會增加,因為世界顯然需要十倍於現在的優質軟件。因此,我們很可能會迎來一個由精簡團隊打造的應用程序黃金時代。每個人、每個企業都能擁有專屬的定製化應用。

從更長遠的角度來看(在這瘋狂的變革中,兩年後就算是長遠了),軟件工程這個行業將會煥然一新,具體會變成什麼樣很難說。當 o6 系統存在並完全融入我們的應用程序時,這個行業怎麼可能還保持原樣?像前端工程師這樣的崗位可能在三年內就會消失。這聽起來很極端?其實不然——三十年前本來也沒有前端工程師這個職位。

我們需要後退一步,認識到軟件行業每一代都會徹底重塑自己。軟件的本質始終是將需求轉化為純邏輯,只是這個轉化過程的抽像層次在不斷提升,從二進製提升到了 Python。現在的區別在於,它正在向自然語言邁進。

這種向自然語言的轉變,將讓非技術人員也能參與編程。但最優秀的開發者永遠是那些能夠在不同抽像層次間自如切換的人。

簡而言之,因為軟件工程的核心是通過代碼來理解和解決組織的需求,所以只有當所有組織都實現完全自動化的那一天,軟件工程才會被完全自動化。

實體行業與算力變革

說完了知識工作者,我們再來談談體力勞動者。AI 同樣會影響這個群體,只是進程會相對緩慢,畢竟機器人還得應對重力和摩擦力這些現實問題。o 系列模型對機器人技術的助力可能並不明顯,因為一個需要一小時才能給出結果的模型,對流水線上的機器人幫助不大。雖然基礎模型變得更智能,o 系列模型也能幫助訓練這些基礎模型,但這並不能解決機器人發展的最大瓶頸。我認為真正的瓶頸在於硬件的改進,以及快速可靠的感知和動作模型。這些都需要更長的時間來突破。機器人技術要實現真正瘋狂的進步,得等到機器人能自己製造機器人,AI 能自主進行 AI 研究的時候。這可能來自於o 系列模型,但估計還要再等幾年。

談到發展速度,也許我們不該以年為單位來計算,而是該以算力為衡量標準。人類的產出取決於時間,但AI的產出取決於算力,而在研究機構中,AI 的產出正變得越來越重要。這就是為什麼各大實驗室都在爭相建設超級計算集群—— Meta 的 2GW 集群、xAI 追加的 10 萬塊 H100 芯片等等。

所有的實驗室很快就會跟隨 OpenAI 的腳步,採用測試時算力模型。有些實驗室可能算法不如人,但可以用更多的算力來彌補。就像他們在 GPT-4 之後做的那樣,總能追趕上來。在 o 系列模型中,OpenAI 到底掌握了多少獨家技術還不好說,但從他們的進步速度來看,這更像是算法上的突破(容易複製),而不是某種獨特的數據組合(難以複製)。

在這個講究測試時算力的時代,究竟是擁有更多算力重要,還是擁有更好的模型重要?這個問題很有意思。一方面,你可以用更多的測試時算力來彌補模型的不足。但另一方面,稍微好一點的模型可能就能節省指數級的算力。

如果 xAI 真能靠著建設超級集群的能力追上 OpenAI,那場面還真有點意思。

無論如何,模型領域的護城河不可能持續超過一年,因為各家實驗室的核心研究人員就像棒球卡片一樣持續互相交換。更有趣的是,這些實驗室的研究員們私下裡還會一起聚會玩樂。再加上我覺得,一旦情況失控,研究人員們恐怕會出於理想主義選擇分享信息。

AI 競賽的現狀與未來

眼下這個局面還真是挺有意思。AI 競賽就像當年的核武器競賽,但區別在於,這場「新冷戰」的「美國人」和「蘇聯人」會在洛斯阿拉莫斯一起狂歡,還在Twitter上互相調侃:「我賭你們在 2025 年造不出最大的核彈,笑死 🙂

這種嬉皮士般的歡樂氛圍,只能維持到政府介入或者出現重大事故為止。

o 系列模型從幾個有趣的方面改變了算力擴張的動態。這類模型激發了大規模擴建的熱情,因為每增加一個數量級的算力,就能帶來明顯的性能提升。對算力供應商來說,這種擴展規律簡直是天降福音。我猜這個規律正是 Sam Altman 看到後,想要建設萬億規模計算集群的原因。

不過這對英偉達來說可能不是好消息。o 系列模型讓推理變得比訓練更重要。而我認為,優化推理的芯片比訓練芯片更容易設計,所以英偉達在這方面的護城河並不深。

說到這裏,我有個大膽的猜想:如果 o 系列模型能夠利用全世界的算力來訓練最強大的模型呢?想想看,如果我們能把所有 MacBook Pro 的算力集合起來,形成一個推理超級集群,開源陣營是不是就能打敗閉源陣營了?這畫面想想就讓人興奮。

效率革命與科研突破

除了算力,代碼生產效率也成了一個新的指數級增長點。假設某個實驗室獨享最強大的模型,他們的軟件工程師效率就能比其他實驗室高出一倍,這樣他們就能更快地實現下一個效率翻倍。當然,除非代碼速度已經達到極限,實驗隊列排得老長,實驗室又一次被算力所困。(說實話,這裡面的博弈關係挺複雜的。要是能看看這些實驗室是如何在算力和人力之間做預算平衡,那就太有意思了。)

說到這些計算資源的擴張和知識工作的自動化,聽起來已經夠瘋狂了,但等到科學家們也感受到 AGI 的威力時,事情才會變得真正瘋狂。這話是說給你們聽的,物理學家、化學家、生物學家們。

首當其衝的是理論研究領域。理論物理學將率先迎來變革。如果數學真的被攻克了(寫出這話我自己都覺得不可思思,但這並不影響它的可能性),那理論物理學應該也差不了多遠。它同樣在符號世界里運作,這正是大語言模型所擅長的。

設想一下,當成百上萬個 AI 版的馮·諾依曼日以繼夜地工作在路斯安那的田野間(Meta 即將建設的數據中心所在地),會發生什麼?它們會瞬間閱讀過去一個世紀里數千名物理學家撰寫的所有論文,然後立即吐出更準確的結論。

顯然,這就到了故事最難預測的部分。理論物理學、化學、生物學——如果這些對於經過強化學習訓練的大語言模型來說不過是小菜一碟呢?現在看來,我們還有什麼合理的理由認為它做不到?沒錯,我們還沒有見過這些模型展現真正的創新,但那是因為它們大多還停留在高中或大學水平,而這個年齡段的人本來就不會發明新物理學。現在我們已經達到了博士水平,或許很快就能看到一些創新性的成果了。

科技創新的鏈式反應

一旦 AI 開始產出新的科學理論,進步的瓶頸就會轉移到現實世界中的測試和實驗環節。這裏的瓶頸主要是勞動力和材料。到那時,如果已經有能自我複製的機器人,那勞動力的問題就解決了。材料問題也能通過機器人挖礦來解決。這個過程會比較慢,畢竟製造和運輸實物需要時間,但我們說的是年的尺度,而不是幾十年。

以上說的這些都是建立在一個前提之上:AI 和機器人的研發不會遇到新的瓶頸,模型可以自由地學習發展。但這種情況幾乎不可能發生。最大的瓶頸將來自人類自身,具體表現在監管、恐怖主義和社會崩潰這三個方面。

  • 監管:政府不會坐視幾家舊金山的科技公司用自動化機器人開採地球資源;

  • 恐怖主義:如果政府管不住大公司,那些失業的憤怒民眾可能會訴諸暴力;

  • 社會崩潰:除非人們已經被 AI 增強的媒體內容洗腦到無法維持正常社會運轉。

如果戰爭爆發,它反而不會成為瓶頸,而是會加速這一進程。

形勢越來越嚴峻了。2025 年可能是 AI 作為舊金山科技圈在Twitter上的玩笑話題的最後一年。之後,那些西裝革履的外行人就要介入了。所以,趁現在還能欣賞 Sam Altman 的推文,就且看且珍惜吧。

AI 發展的隱憂

這一切會要了我們的命嗎?說實話,我更擔心人類濫用 AI,而不是 AI 自己失控。

無數歷史證明,人類最擅長使用最新技術相互爭鬥。當武器變得更致命、更自主,賭注也就越來越大。另一個重大風險是 AI 導致的社會動盪。AI 生成的內容可能會引發大規模的混亂、歇斯底裡和集體認知障礙。這項新技術,很可能會被利用來剝奪我們幾千年的自由。

還有一種風險是 AI 真的失控了。也就是說,它可能會造成我們始料未及的滅絕級災難。特別是現在強化學習又重新成為主流,AI 開始自主尋找優化方案,而不是單純模仿人類數據(模仿人類相對更安全)。不過到目前為止,這些模型的核心還是大語言模型,而大語言模型已經表現出了對人類的理解能力。比如說,如果你在提示詞里寫上「千萬別做任何可能害死我們的事」,那現在的舉證責任就在質疑者那邊了——你得證明它還是很可能會殺死我們。當然,這裡面還有很多論點我都沒考慮到。

憧憬與期待

說到底,我還是更多感到興奮,而不是恐懼。

我一直期待的科幻世界終於要來了。它來得比預期快了一點——這也是人們感到恐懼的原因——但在所有可能的發展路徑中,我覺得現在這條路也沒那麼糟。這是個相當不錯的時間線。

我特別期待在未來十年內看到這些突破:

  • 一些突破性的物理學發現

  • 由機器人率先建造的火星和月球基地

  • 完美的導師/顧問系統(這個已經很接近了,只需要更好的檢索、記憶和個性化)

  • 零副作用的生物增強藥物

  • 超級優化的無人機載人飛行

  • 融合能源、地熱能和大量太陽能帶來的清潔能源革命

  • 還有那些意想不到的突破:AI 天文學家在望遠鏡數據中發現外星信號?AI 化學家輕鬆設計出室溫超導體?AI 物理學家統一某些理論?AI 數學家解決黎曼猜想?

這些不再是科幻小說,而是觸手可及的科技現實。

AGI 前夜

這一切的終點是什麼?終有一天我們會達到超級智能的水平,那時候,只要物理規律允許的事情,我們都能做到。我很期待長生不老,也想去看看其他星系。我猜我們還會把這副血肉之軀升級成更好的載體。不過最讓我激動的,還是終於能搞清楚宇宙從何而來。十年前,我就開始在日記里寫道,我多麼渴望知道這個答案,而 AI 將幫助我們找到答案。現在這一切真的可能發生了,簡直不可思議。

我們現在生活在一個讓這一切聽起來都變得理所當然的世界里。每一次 AI 的新突破都讓更多的人意識到這一點,o3 就是最新的例子。

如果未來沒能變得精彩紛呈,那隻可能是因為我們人類自己搞砸了。比如我們的公眾認知、相應的政策製定、社會穩定性、國際合作——這些才是可能阻礙這個精彩未來的絆腳石。

人們常說 AI 實驗室的人在主導我們的未來。我不這麼認為。他們的工作其實早就註定了。他們只是在執行必然會在某個實驗室發生的模型架構演進。但是公眾認知、政策製定、社會穩定、國際合作——這些都充滿了不確定性。這意味著我們每個人都是未來的守護者。讓這個世界安然度過未來的瘋狂時期,讓我們迎來美好而不是可怕的未來,這個責任落在了我們每個人身上。

幫忙的方式有很多。你可以開發一些能讓社會更穩定或讓人們更聰明的產品。你可以幫助人們瞭解正在發生的事情。你也可以清理我們的街道,這樣這個許諾帶來烏托邦的城市就不會看起來像個反烏托邦。

幾乎每個和我聊天的人都擔心在 AI 時代失去人生意義,你可能也有這種擔憂。對此我想說,情況恰恰相反。你正生活在人類歷史上最重要的時期,而且你有能力影響這個時期的走向。拯救世界還不夠有意義嗎?你真的想回到那個只有個人職業在進步而世界沒有進步的時代嗎?

也許人們需要從個人成功獲得意義轉變為從集體成功獲得意義。我們現在的很多工作很快就會被自動化。我們必須適應。如果你的意義來自某項特定技能,那麼是的,這項技能在五年後可能就不再必要了,你就倒霉了。但如果你能從幫助世界變得更好中獲得意義,這種意義永遠不會消失。

對於因為 o3 而收到各種建議的應屆生們,這是我的建議:學會成為一個主動解決問題的人和一個優秀的團隊合作者。你在這個過程中學到的具體技能並不重要,因為世界變化得太快了。但主動跳出來解決問題和與團隊良好合作的能力會在很長一段時間內都很重要。

你可能還得接受一個不穩定的人生,因為我們生活在一個不穩定的世界里。情況會變得很奇怪。你可能不會過上養兩個孩子加一條狗的郊區生活。你可能會有兩個半機械人孩子和一個 AI 寵物狗,生活在星際方舟上。

我們正生活在 AGI 的前夜。在這個聖誕前夜,我想說:希望你能幫助 AGI 的轉型順利進行,這樣在 3024 年的聖誕前夜,我就能在環繞 Altman 星的行星上和你打招呼了。