對DeepSeek和智能下半場的幾條判斷

從 24Q3 開始我們就一直在講 AI 的下半場,雖然 OpenAI o1 提出了 RL 敘事,但因為各種原因沒有破圈,DeepSeek R1 解了 RL 的謎題,推進整個行業進入了新範式,真正進入智能下半場。
市場上關於 DeepSeek 是什麼、為什麼的討論已經很多了,接下來更有價值討論是 AI race 要怎麼 play ?把過去半個月的思考總結了一下,希望成為探索下半場的 road map,每隔一段時間來複盤。也列出了幾個最好奇的問題:
下一個智能突破的 Aha moment 會從哪出現?
如果你有充裕的探索資源,你會把探索資源投入在什麼方向上?
比如下一代 Transformer 架構、合成數據的突破、Online Learning 更高效率的學習方式,你會有哪些 Bet?
一、DeepSeek 超越 OpenAI 了嗎?
DeepSeek 超越了 Meta Llama 毫無疑問,但相比 OpenAI、Anthropic 和 Google 這些第一梯隊 players 還有距離,比如 Gemini 2.0 Flash 成本比 DeepSeek 更低,能力也很強,且全模態,外界低估了 Gemini 2.0 為代表的第一梯隊的能力,只是沒有開源而獲得這麼炸裂轟動性的效果。
DeepSeek 很讓人興奮,但還不能稱作範式級創新,更準確的表述是將之前 OpenAI o1 半遮半掩的範式開源,將整個生態推向很高滲透率。
從第一性原理角度,在 Transformer 這一代架構下超越第一梯隊模型廠商是有難度的,同樣路徑下很難實現彎道超車的可能,今天更期待有人能探索出下一代的智能架構和範式。

DeepSeek 用一年時間,追上了 OpenAI 和 Anthropic
二、DeepSeek 開啟新範式了嗎?
就像前面說的,嚴格意義上說,DeepSeek 沒有發明新範式。
但 DeepSeek 的重要意義在於幫助 RL 和 test time compute 這個新範式真正出圈。如果說 OpenAI 最初發佈的 o1 是給行業出了一個謎語,DeepSeek 就是第一個公開解謎的人。
DeepSeek 發佈 R1 和 R1-zero 之前,行業只有少部分人在實踐 RL 和 reasoning model,但 DeepSeek 給大家指明了路線圖,讓行業相信這樣做真的能提升智能,這對提升信心,吸引更多 AI researcher 轉向新範式的研究有巨大的幫助。
有人才進入,才有算法創新,有開源緊追才有更多計算資源投入。在 DeepSeek 之後,原本計劃不再發新模型的 OpenAI 接連發出 o3mini,並計劃繼續發佈 o3,還考慮開源模型。Anthropic 和 Google 也會加快 RL 的研究。行業對新範式的推進因為 DeepSeek 加快,中小團隊也可以在不同的 domain 上嘗試 RL。
另外,reasoning model 的提升會進一步幫助 agent 落地,AI researcher 現在都因此對 agent 的研究和探索更有信心,因此也可以說 DeepSeek 開源 reasoning model 推進了行業向 Agent 的進一步探索。
所以 DeepSeek 雖然沒有發明新範式,但推進整個行業進入了新範式。
三、Anthropic 的技術路線和 R1 有什麼不同?
從 Dario的訪談可以看出,Anthropic對R-1/reasoning model的理解,與O系列有些分歧,Dario覺得 base model 與 reasoning model應該是個連續光譜,而非 OpenAI 這種獨立的模型系列。如果只做 O 系列會很快遇到天花板。
我一直想為什麼 Sonnet 3.5的coding、reasoning 和 agentic能力一下子提升這麼強,但 4o 一直沒追上?
他們在 pre training base model 階段就做了大量 RL 工作,核心還是把 base model 提上去,不然只靠 RL 提升 reasoning model 可能很容易把收益吃光。
四、DeepSeek 的轟動有必然,也有偶然
兩位早期 OpenAI 研究員寫的《為什麼偉大不能被計劃》形容 DeepSeek 也很合適。
技術角度上,DeepSeek 有下面幾個亮點:
• 開源:開源這點很重要,OpenAI 從 GPT-3 開始轉為閉源公司後,第一梯隊三巨頭就不再公開技術細節,拱手讓出了一個空白的開源生態位,但 Meta 和 Mistral 並沒有接穩這個位置,DeepSeek 這次堪稱奇襲,在開源這塊大賽道一馬平川。
如果把轟動性打 100 分,智能提升貢獻 30 分,開源貢獻 70 分,之前 LLaMA 也開源但沒有這麼轟動的效果,說明 LLaMa 智能水平不夠。
• 便宜:「Your margin is my opportunity」 這句話的重要性還在上升。
• 聯網+公開 CoT:對於用戶這兩個點分別都能帶來很好的用戶體驗,DeepSeek 把兩張牌同時出了,可以說是王炸,給到 C 端用戶的體驗和其他 Chatbot 完全不一樣。尤其是 CoT 透明,把模型思考過程公開了,透明能讓用戶對 AI 更信任,促進了破圈。不過,按理說 Perplexity 也是衝擊很大的,但 DeepSeek 服務端不穩定,Perplexity 團隊快速反應上線了 R-1 反而承接了很大 DeepSeek R-1 溢出的用戶。
• RL 泛化:雖然 RL 是 OpenAI o1 最先提出來的,但因為各種運營一直半遮半掩,滲透率並不高,DeepSeek R-1 很大意義推動了 reasoning model 範式的進程,生態接受度大幅提升。
DeepSeek 在技術上的探索投入是這個智能成果值得更多人關注、討論的確定性因素,但 DeepSeek R1 推出的 timing 又讓這場轟動帶有偶發性:
• 過去美國一直講自己在基礎技術研究上大幅領先,但 DeepSeek 原生於中國國內,這本身也是一個亮點,這個過程中,又有很多美國科技大佬開始去宣揚 DeepSeek 挑戰了美國科技霸主的地位的論調,DeepSeek 屬於被動捲進輿論戰;
• DeepSeek R1 發佈之前,OpenAI Stargate $500B 事件剛剛開始發酵,這種巨量投入和 DeepSeek 團隊智能產出效率對比太鮮明了,很難不引發關注、討論;
• DeepSeek 讓英偉達股價大跌又進一步讓輿論發酵,他們肯定也想不到自己成為了 2025 開年美股第一隻黑天鵝;
• 春節是產品的練兵場,移動互聯網時代很多超級 App 都是在春節大爆發的,AI 時代也不例外。DeepSeek R1 恰好在春節前發佈,大眾驚喜的是它的文字創作能力,而不是訓練時候強調的 coding 和數學能力,文創更容易被大眾用戶有體感,也更容易 go viral。
五、誰受傷?誰受益?
可以把這個賽場上的 players 分 3 類:ToC、To Developer 以及 To Enterprise( to Government):
1. ToC:Chatbot 肯定受衝擊最大,心智和品牌關注度被 DeepSeek 搶走了,ChatGPT 也不例外;
2. 在開發者環節的影響很有限,我們看到有用戶用完之後說評論 r1 不好用不如 sonnet,Cursor 官方也說 Sonnet 還是 outperform,用戶 surprisingly 高比例都選擇 Sonnet,並沒有大幅遷移;
3. 第三個維度,To Enterprise 和 To Government 的生意在於信任和需求理解,大型組織做決策的利益考慮很複雜,不會像 C 端用戶那麼容易遷移。
再換個角度,從閉源、開源和算力的視角想這個問題:
短期大家會覺得閉源的 OpenAI/Anthropic/Google 更受衝擊:
• 技術神秘感被開源了,AI hype 裡面最重要的神秘感的溢價被打破;
• 更現實的因素,市場認為這幾家閉源公司的潛在客戶和市場規模被搶走了一些,GPU 投入的回本週期變長;
• 作為榜首的 OpenAI 在其中屬於最「吃虧」的那個,之前想捂著技術不開源,半遮半掩,希望多賺技術溢價的美夢無法實現了。
但中長期看,GPU 資源充裕的公司還是受益的,一方面是第二梯隊的 Meta 可以快速跟進新方法,Capex 更加 efficient,Meta 可能是很大受益者,另一方面是智能提升還需要更多探索,DeepSeek 開源把大家水平拉齊,進入全新探索又需要 10 倍甚至更大量級的 GPU 投入。
從第一性原理來想,對於 AI 智能產業來說,無論是發展智能還是應用智能,從物理本質上就必然要消耗海量算力,這是基礎定律決定的,不是技術優化能完全規避的。
所以,無論是探索智能,還是應用智能,即便短期有質疑,中長期的算力需求也會爆炸,這也解釋了為什麼馬斯克從第一性原理出發,xAI 堅持擴建集群,xAI 和 Stargate 背後的深層邏輯也許是一樣的。Amazon 等雲廠商都宣佈了要增加 Capex 指引。
我們就假設全球的 AI research 人才水平和認知都拉齊,有更多 GPU 就可以做更多實驗探索?最後可能還是回到 compute 的競爭。
DeepSeek 光腳不怕穿鞋,沒有商業化訴求,專注 AGI 智能技術探索,開源這個動作對推動 AGI 進程意義很大,加劇了競爭,推動了開放性,頗有鯰魚效應。
六、蒸餾能超越 SOTA 嗎?
有個細節點不確定,如果 DeepSeek 從 pre train 階段就大量使用蒸餾的 CoT 數據,那做到今天效果不算驚豔,還是在第一梯隊巨頭的肩膀上獲得的基礎智能,然後再開源出來;但如果 pre train 階段沒有大量用蒸餾數據,DeepSeek 從 0 做 pre train 做到今天的效果,那就堪稱驚豔了。
另外,蒸餾能否在 base model 超越 SOTA,應該是不太可能的。但 DeepSeek R-1 非常強,猜測是 Reward model 做得非常好,如果 R-1 Zero 這條路徑可靠,是有機會超越 SOTA。
七、No Moat !
Google 之前對 OpenAI 的一個評價:No Moat!這句話放在這裏也很應景。

DeepSeek 這一波 Chatbot 用戶又出現了大量遷移現象,給了市場一個很重要的啟發:智能技術進步非常陡峭,階段性產品很難形成絕對壁壘。
不管是 ChatGPT/Sonnet/Perplexity 剛形成了心智和口碑,還是 Cursor、Windsurf 這類開發者工具,一旦有了更智能的產品,用戶對「上一代」智能的產品毫無忠誠度,今天不管是模型層還是應用層都很難構建護城河。
DeepSeek 這次也驗證了一件事:模型即應用,DeepSeek 在產品形式上沒任何創新,核心就是智能+開源,我也不禁思考:在 AI 時代,任何產品和商業模式的創新都比不上智能的創新嗎?
八、DeepSeek 應該承接這波 Chatbot 流量並做大嗎?
從 Chatbot 爆火到今天,通過 DeepSeek 團隊的反應可以明顯感覺出來,DeepSeek 還沒想好怎麼用這波流量。
而要不要接住、並積極運營這批流量這個問題的本質是,偉大的商業公司和偉大的 research lab 能共存在一個組織嗎?
這件事非常考驗精力和資源分配、組織能力和戰略選擇,如果是字節、Meta 這類大公司,他們的第一反應應該都要接下來,也有一定組織基礎可以接下來。但 DeepSeek 作為一個 research lab 組織,承接這波巨量流量的壓力必然很大。
但同時也要想這一波 Chatbot 會是階段性流量嗎?Chatbot 是不是在未來智能探索的主線下?似乎感覺每個智能階段都有對應的產品形態,而 Chatbot 只是解鎖的其中一個早期形態。
對於 DeepSeek 來說,從未來 3~5 年視角看,如果今天不去承接 Chatbot 流量,會不會是一種 miss?萬一哪天跑出規模效應?如果 AGI 最終實現了,又會是什麼載體來承接?
九、下一個智能突破的 Aha moment 從哪來?
一方面,第一梯隊的下一代模型很關鍵,但今天我們又處在 Transformer 的極限邊界上,第一梯隊能否拿出代際提升的模型也不確定。OpenAI、Anthropic 和 Google 作為回應發出來好 30%~50%的模型可能都不夠挽回局勢,因為他們資源多了 10~30 倍。
另一方面, Agent 落地比較關鍵,因為 Agent 需要做長距離多步驟推理,如果模型好 5%~10%,領先的效果就會被放大很多倍,所以 OpenAI、Anthropic 和 Google 一方面要做 Agent 產品落地,full stack 集成模型+Agent 產品,就像 Windows+Office,二是也要 show 出來更強大的模型,比如 O3 完整版、Sonnet 4/3.5 opus 為代表的下一代模型。
在技術不確定性下,最寶貴的是天才 AI researchers,任何想要探索 AGI 的組織都要投入資源更激進的 bet on next paradigm,尤其是在今天 pre training 階段已經被拉齊的背景下,要有好的人才+充裕資源,探索下一個智能湧現的 Aha moment。
十、DeepSeek這一波讓我對中國AI人才更有信心,非常鼓舞
最後,希望技術無國界。