胡泳:DeepSeek給我們帶來怎樣的世界?

文|北京大學新聞與傳播學院教授 胡泳
中國人工智能實驗室DeepSeek推出的人工智能語言模型R1堪稱一場地震。它在所有應用商店榜單上超越了美國的競爭對手ChatGPT,觸發科技股市高達1萬億美元的拋售,並在矽谷引發末日般的評論。
美國知名風險投資家馬克·安達臣(Marc Andreessen)將R1的發佈譽為全球人工智能發展競賽中的「斯普特尼克時刻」(Sputnik moment),比肩當年蘇聯通過發射衛星而令冷戰對手美國震驚的歷史性事件。
對美國人的震驚有多大呢?英偉達,作為為AI模型提供支持的領先計算機芯片製造商,股價暴跌17%,市值蒸發近6000億美元,跌幅創美國股市最高紀錄。Google母公司損失了1000億美元,微軟損失了70億美元。美國總統唐納德·特朗普表示,DeepSeek應該成為「美國行業的警鍾,我們需要全力以赴,專注於競爭以取得勝利」。
根據DeepSeek的說法,其R1模型在「各種基準測試」中表現優於OpenAI的o1-mini模型,而Artificial Analysis的研究表明,R1模型在整體質量方面也超越了Google、Meta和Anthropic開發的模型。
業界的震動不僅源於質量的高低,還在於DeepSeek聲稱僅花費不到600萬美元就訓練出了一款可與ChatGPT媲美的人工智能模型。相比之下,OpenAI的主要合作夥伴微軟計劃今年在人工智能基礎設施上投入約800億美元。
DeepSeek拿出的,不僅僅是「中國的ChatGPT」, 還代表著中國對OpenAI的回應,R1的影響要大得多,原因有幾個方面。
思維鏈模型:推理飛躍
首先,它是一種「思維鏈」模型,這意味著當你給它一個查詢時,它會通過自我推理來給出答案:這種技巧看似簡單,但極大地提高了回答質量。
反復測試表明,DeepSeek-R1在解決數學和科學問題方面的能力與OpenAI於2024年9月在舊金山發佈的o1模型相當,而後者的推理模型被認為是行業領先者。
OpenAI當時表示,o1的工作方式比以前的大語言模型(LLM)更接近人類的思維方式。「在回答之前進行思考,先生成一條長長的內部思維鏈再響應用戶」, 這是OpenAI對其自身創作的描述。
在此方面,R1不僅可以直接與o1進行比較,還增強了自身回答數學和編程問題的能力——這些問題在AI專家中被高度重視。不僅如此,R1的能力不限於數字和代碼,它在語言處理和自然語言推理任務中的表現也令人印象深刻,這意味著其高效的方法適用於更廣泛的應用,而不僅僅是結構化問題求解。
此外,R1還更具可訪問性。它不僅通過應用程序免費提供使用(而OpenAI的o1則需要每月支付20美元),而且對於開發者來說,完全免費,可以下載並集成到他們的業務中。例如,基於其出色的性能和低成本,R1將鼓勵更多科學家在日常研究中嘗試使用大語言模型,而無需擔心成本問題。
除了低成本,R1的開放性可能會給科學研究帶來顛覆性的變化:通過其應用程序接口(API),研究人員僅花費專有模型成本的一小部分即可使用該模型,或者通過在線聊天機器人DeepThink免費查詢。此外,他們還可以將該模型下載到自己的服務器上,免費運行並在此基礎上進行開發——這是像o1這樣的封閉模型所無法實現的。
從人工智能研究的角度來說,DeepSeek展示了一種改進無數其他模型的方法。它通過使模型構建變得更便宜、更快速、更易於獲取,代表了全球AI的重大進展。雖然LLM並不是通向先進AI的唯一途徑,但DeepSeek的創新當得起「AI里程碑」的美譽。
Anthropic的聯合創始人積克·克拉克(Jack Clark)表示,該公司的模型Claude也受到啟發。
「現在互聯網上出現了一個開放權重的模型,任何足夠強大的基礎模型都可以通過它引導成為一個AI推理器,」
克拉克在他的新聞簡報Import AI中寫道:
「全球的AI能力剛剛實現了一次不可逆的進步。」
Anthropic另一位聯合創始人達里奧·阿莫迪(Dario Amodei)則撰文表示,這背後是範式的改變。
「每隔一段時間,正在擴展的基礎事物會發生一些變化,或者在訓練過程中加入一種新的擴展方式。從2020年到2023年,主要的擴展內容是預訓練模型:這些模型通過大量的互聯網文本訓練,並在其基礎上進行少量額外的訓練。而在2024年,使用強化學習(RL)來訓練模型生成思維鏈的想法,成為了擴展的一個新重點。這個新範式的特點是,首先使用普通類型的預訓練模型,然後在第二階段通過RL增加推理能力。」
DeepSeek在構建其R1模型時的重大創新是摒棄了人工反饋,設計算法來識別並糾正自身的錯誤。研究人員寫道:
「DeepSeekR1-Zero展示了自我驗證、反思和生成長鏈推理等能力……值得注意的是,這是首次通過強化學習驗證大規模語言模型的推理能力可以僅通過這種方式進行激勵。」
總之,DeepSeek先進的推理能力、創新的訓練方法以及對可訪問性的承諾,為人工智能的發展樹立了新的標準。阿莫迪特別提到:
「我懷疑R1引起如此多關注的主要原因之一在於,它是第一個向用戶展示模型推理過程(鏈式推理)的模型,而OpenAI的o1僅向用戶展示最終答案。DeepSeek證明了用戶對這一點感興趣。」
他認為,這僅僅是一個用戶界面設計的選擇,與模型本身無關。
然而,所有這些因素使得R1的表現更容易被人們欣賞,就像2022年ChatGPT的聊天界面首次使人工智能變得觸手可及一樣。
挑戰矽谷現成敘事 顛覆AI發展方式
其次,R1的創建方法削弱了矽谷目前的AI發展方式。美國主導的方式是通過簡單地增加更多的數據和計算能力來擴展現有模型,以實現更高的性能。這種方法導致了該行業能源需求的巨大增加,並使科技公司與政客緊密相連。開發AI的費用如此龐大,以至於科技公司希望借助國家來融資和興建基礎設施,而政客則希望購買它們的忠誠,並在支持高速增長的公司方面表現積極。
一個典型的例子就是特朗普在1月早些時候宣佈的5000億美元「星際之門」(Stargate)計劃,號稱「歷史上最大的人工智能基礎設施項目」——一個由OpenAI、甲骨文和軟銀聯合投資的合資項目,旨在在全美範圍內建立數據中心網絡,目標是建設支持人工智能開發所需的關鍵數據中心和計算基礎設施。
然而,在R1問世之後,特朗普說他一直在「閱讀有關中國DeepSeek」及其公司的內容,特別是一家提出了「更快且更低成本的人工智能方法」的公司。「這很好,因為你不需要花費那麼多錢。我將其視為一種積極的因素,一種資產,」特朗普表示。
市場對舊AI發展方式受到的衝擊反應迅速且猛烈。《金融時報》報導稱,對衝基金Elliott Management在一份致投資者的通知中表示,人工智能被「過度炒作」,而作為這一熱潮的大贏家之一的英偉達正處於一個「泡沫」之中。
作為主導AI行業的芯片供應商,人們把英偉達與19世紀加利福尼亞淘金熱時期的「鐵鍬和水桶商」作比較,因為它恰好在金礦高潮中出現,成為世界上最富有行業的主要供應商。然而隨著DeepSeek的崛起,科技公司可能會開始質疑是否還需要像以前那樣大量購買英偉達的工具。
從長遠來看,AI領域的新競爭者對英偉達來說,會是個好消息嗎?其他公司在AI軍備競賽中投入的計算能力是否代表了浪費的資金?通過開發出一個與美國同行相匹敵、在許多方面超越它們的AI模型,DeepSeek挑戰了矽谷的故事,即技術創新需要龐大的資源和最小的監管。
DeepSeek做了什麼是財力雄厚的OpenAI沒有做到的呢?很難確定答案,因為OpenAI對其GPT-o1模型的訓練過程一直非常保密。不過,兩家公司在方法上的一些明顯差異,以及DeepSeek似乎在某些領域取得的令人印象深刻的突破,都值得關注。可能最大的差異,也是導致像英偉達這樣的芯片製造商股票暴跌的原因,在於DeepSeek能以遠高於其規模對手的效率創造出競爭模型。
OpenAI能否轉向高效?當然可以。但其與微軟的合作夥伴關係和問題重重的領導結構可能使這種轉變昂貴得多。這家公司深度整合了微軟的Azure基礎設施,曾經看似是戰略優勢,不過現在看起來越來越像一種負擔。雖然OpenAI一直在推動客戶轉向微軟龐大的數據中心,但市場正在發現一條不同的道路:高效的開源AI模型,可以在明顯更便宜的基礎設施上運行。

OpenAI的方式與新興的輕量級、可訪問AI之間的鮮明對比使得該公司面臨一個特別困難的局面。它的整個商業模式,建立在高昂定價和假設先進AI需要雲計算和龐大數據中心的前提下,正在受到競爭者的挑戰,後者通過更加精簡的操作取得了大致相當的結果。
近年來,OpenAI通過將現有的機器學習算法擴展到前所未有的規模,在語言處理領域實現了一系列令人矚目的突破。其GPT-4可能是通過使用數萬億單詞的文本以及數千個強大的計算芯片進行訓練的,整個過程耗資超過1億美元。
然而,早在2023年4月,公司CEO山姆·阿爾特曼(Sam Altman)就表示,進一步的進展不會來自於模型規模的繼續擴大。
「我認為,我們已經到了這個巨型模型時代的盡頭,我們會以其他方式改進它們。」
此聲明表明,GPT-4或許是OpenAI通過擴大模型規模並輸入更多數據這一策略所產生的最後一次重大進展。當時,阿爾特曼並未說明將取而代之的研究策略或技術可能是什麼。在描述GPT-4的論文中,OpenAI表示,其估算結果顯示,擴大模型規模的回報出現遞減。阿爾特曼還說,公司能夠建設數據中心的數量以及建設速度也存在物理限制。
不過這並不妨礙包括Anthropic、AI21、Cohere和Character.AI在內的許多資金充裕的初創公司,投入巨大的資源,致力於構建越來越大的算法,試圖趕上OpenAI的技術。直到DeepSeek出現的時刻。
R1顛覆了「擴展是前進之路」的普遍認知。據認為,R1的開發成本比OpenAI的o1便宜95%,而且僅使用了Meta的Llama 3.1模型十分之一的計算能力。能夠以極小的預算實現等效的性能,才是R1令人震驚之處,這也是它發佈後產生巨大影響的原因。這表明,美國公司可能在浪費資金,且更靈活的競爭者能夠擊敗它們。
DeepSeek粉碎了「AI霸主地位需要億萬美元支票」的神話。更進一步地,DeepSeek的發展引發了對AI基礎設施(如芯片)重大投資必要性的質疑,並對美國科技公司在AI領域的市場領先地位產生了影響,這可能會對美國科技行業的估值施加壓力。
美國投資銀行高盛的分析師在2024年6月發佈了一份題為《生成式AI:過多的支出,過少的收益?》的報告,敲響了AI投資的警鍾。該報告質疑未來幾年內對AI的1萬億美元投資是否「值得」,並表達了對投資回報的擔憂,而這種擔憂現在被DeepSeek的案例所加劇。
如同Forrester的分析師所說。DeepSeek剛剛「打開」了AI投資回報的路徑。由於精妙的優化,訓練模型的成本壁壘大幅降低,預計這些優化方法將被全球的模型開發者複製並改進。
短期來看,這對英偉達來說是個壞消息,因為它將抑制需求。然而,從長期來看,較低的成本(以及因此而降低的能耗)將為更多的初創企業和企業提供創建模型的機會,從而增加整體需求。這進一步驗證了一個事實:僅依靠提供核心AI基礎模型的供應商是不夠的,此一顛覆性轉變將進一步打開AI模型市場的大門。對於技術領導者而言,這應該是一個強烈的信號,要求他們認真審視對AI領域幾個大玩家的過度依賴。
AI應該人人能負擔並可獲取
所有這一切都意味著R1發佈的確切影響是無法預測的。涉及的因素太複雜,未知數太多,無法確定未來會怎樣。然而,這並沒有阻止科技界和市場的瘋狂反應,CEO們驚慌失措,股價暴跌,分析師們急忙修正行業預測。而這實際上正展示了AI領域的特點:它充滿了熱度、不確定性和過度反應。
可以確定的是,實現下一個層次的人工智能仍然需要大量的計算資源。推動我們邁向下一個裡程碑的因素仍然不確定——是規模、數據、微調、強化學習,還是完全不同的其他因素。DeepSeek目前代表了我們所知道的最先進技術,但它並不是下一個層次的人工智能。
不過我們仍然可以斷言:DeepSeek R1代表了人工智能發展中的一個重要里程碑。AI行業現在正處於十字路口:通往AI主導地位的道路可能不再是由龐大的數據中心和巨額預算鋪就,而是通過優雅的算法和無情的高效性,最終將人工智能從象牙塔帶入到大眾手中。
在接受中國媒體採訪時,梁文鋒表示:「AI應該是人人都能負擔得起並可獲取的。」這一點,就是DeepSeek的最大意義之所在。
編輯 陳莉 校對 穆祥桐