深度|前GoogleCEO發文:中國DeepSeek將終結美國在AI領域的霸權?

圖片來源:Innovation Endeavors圖片來源:Innovation Endeavors

作者:Eric Schmidt 和 Dhaval Adjodah

Eric Schmidt 是Google前首席執行官兼董事長,現為 Schmidt Sciences 聯合創始人及無黨派智庫 Special Competitive Studies Project 的主席。

Dhaval Adjodah 是 MakerMaker.AI 的聯合創始人兼首席執行官。

Z Highlight

  • 中國公司已經真正成為開源領導者,而大多數美國主要科技公司(除了 Meta 之外)仍然嚴格保密其技術方法。事實上,這已經成為中國 AI 公司的發展趨勢——從初創公司 Minimax 到科技巨頭 阿里巴巴,越來越多的企業正在向全球開發者免費開放其 AI 模型。

  • 目前,全球 AI 領域的權力格局似乎正在圍繞兩個關鍵維度發生變化:一是中美之間的競爭,二是封閉與開源模式的較量。

  • 通常,即使是資金最充足的大學實驗室,也因計算資源和數據限制而難以在 AI 研究中有所突破。但隨著 DeepSeek 的創新,大公司對 AI 研發的壟斷地位可能正在被削弱。

  • 美國若要保持創新優勢,不能僅依賴封閉模型的領先地位,而必須加速開源生態的發展,並推動訓練方法的共享,同時加大對 AI 研發的投資。

如今,人工智能領域的變革速度之快已成為老生常談。然而,就在最近,即便是站在 AI 研究最前沿的專家們也被一家中國公司所震驚。

上週,AI 公司 DeepSeek 發佈了其 R1 推理模型,該模型在多個邏輯任務(包括數學和編程)上的表現與 OpenAI-o1 旗鼓相當(並且遠超 ChatGPT 各版本)。此外,R1 的運行成本也極低,僅為 OpenAI 費用的約 2%。而就在本週一,DeepSeek 又發佈了 Janus Pro,這是一款小到可以在筆記本電腦上運行的圖像生成模型,據稱其性能優於 OpenAI 的 DALL⋅E 3。DeepSeek 的 AI 創新速度震驚全球。

更值得關注的是,DeepSeek 的所有模型都是開源的——在這種情況下,這意味著它們的訓練權重也是公開的,任何人都可以複現並在其基礎上進行開發。

這是一個頗具戲劇性的時刻:中國公司已經真正成為開源領導者,而大多數美國主要科技公司(除了 Meta 之外)仍然嚴格保密其技術方法。事實上,這已經成為中國 AI 公司的發展趨勢——從初創公司 Minimax 到科技巨頭 阿里巴巴,越來越多的企業正在向全球開發者免費開放其 AI 模型。

此前,在美國構建的閉源模型(如 OpenAI 的 o3 和 Anthropic 的 Claude 3 Opus)被認為是領先的行業標準。而開源模型(尤其是中國的開源模型)通常被認為落後幾個月。然而,DeepSeek 的 R1 和 Janus Pro 證明了技術主導權的轉變可能比想像中更快。這些模型的發佈不僅攪動了市場,也導致美國科技股大幅下跌。目前,全球 AI 領域的權力格局似乎正在圍繞兩個關鍵維度發生變化:一是中美之間的競爭,二是封閉與開源模式的較量。

支持閉源模型的企業押注於通過保護模型權重和訓練方法來保持技術領先優勢。而開源支持者則認為,透明度可以讓更多人基於現有成果進行創新,從而加速系統的發展,使其迅速趕上甚至超越封閉模型。如果這一理論成立,AI 生態系統將被徹底顛覆。

開源模型通常使用成本更低,因此,當市場上存在兩個能力相當的模型時(一個開源,一個封閉),開源模型更可能被廣泛採用,從而形成戰略優勢。目前,美國已經擁有全球最好的封閉 AI 模型。要保持競爭力,美國還必須支持強大的開源生態發展。

中美在 AI 領域的競爭尚未分出勝負。然而,DeepSeek 能夠以遠少於美國科技巨頭的資源與其競爭,這給美國大廠帶來了巨大壓力。美國針對中國的出口管製政策旨在切斷其獲得最先進計算芯片的渠道,以遏製中國在 AI 領域的發展。然而,事實可能恰恰相反——芯片短缺反而迫使中國企業提高計算效率,並探索降低訓練成本的新方法。

例如,DeepSeek 發現了一種新的大模型訓練方式,可以繞過傳統的監督微調階段,從而大幅降低訓練成本。他們甚至推出了R1-Zero,一種完全跳過微調步驟的模型,以挑戰研究界對微調必要性的固有認知。

DeepSeek 的成功還引發了人們對預訓練重要性的重新思考。傳統的 AI 訓練方法依賴於基於大規模文本數據的預測任務(即訓練模型預測下一個單詞)。這一過程需要大量 GPU 計算資源和數據,而 OpenAI 聯合創始人 Ilya Sutskever 最近表示,我們可能很快就會耗盡互聯網上可用於訓練的數據。

然而,最近出現了一種新的提升模型性能的方法。OpenAI 在 12 月發佈的 o1 模型首次引入了一種類人推理的方法:模型可以通過自我反思(self-reflection)來推理,就像人類思考一樣,利用中間步驟和自我糾正來得出最終答案。這一訓練方法原本是 OpenAI 嚴格保密的核心技術,但 DeepSeek 通過發表論文公開了這一過程,使其他研究者也能應用這一方法。

更重要的是,DeepSeek 還證明了可以用更低成本實現這一目標。他們採取了一種新的方法:利用 Meta 公開的 Llama 3 作為基礎模型,通過強化學習(reinforcement learning)進行推理訓練。這種方法採用人類反饋和獎勵機制進行試錯學習,最終讓模型自發學會推理、在遇到瓶頸時回溯,並探索新的解法。這種技術消除了從頭開始訓練新模型的昂貴需求,極大地降低了 AI 研發成本。通常,即使是資金最充足的大學實驗室,也因計算資源和數據限制而難以在 AI 研究中有所突破。但隨著 DeepSeek 的創新,大公司對 AI 研發的壟斷地位可能正在被削弱。

短期來看,美國的頂尖 AI 公司不太可能改變其商業模式,而開源與封閉模式的競爭也將逐步找到市場平衡,不同用戶將根據需求選擇不同的產品和價葛斯略。

然而,DeepSeek 的發佈標誌著一個重大轉折點。

美國若要保持創新優勢,不能僅依賴封閉模型的領先地位,而必須加速開源生態的發展,並推動訓練方法的共享,同時加大對 AI 研發的投資。白宮最近宣佈的 Stargate計劃便是一個例子,該計劃表示在未來四年內投入 5000 億美元建設 AI 基礎設施。

美國的競爭優勢長期以來依賴於開放科學、以及產業、學術界和政府的協同合作。我們應該重新擁抱開放科學的可能性,讓其再次成為推動美國 AI 發展的動力。