李開複:零一萬物正基於DeepSeek,打造AI 2.0時代的Windows

新浪科技訊 3月30日下午消息,在2025中關村論壇年會上,零一萬物 CEO、創新工場董事長李開複表示,“大模型的推理成本正在以每年降低十倍的速度快速下降,這為AI-First應用爆發提供了非常重要的條件。”
“兩年前模型性能不夠好的模型,現在已經夠好了;兩年前推理成本太貴的模型,現在已經是‘白菜價’了。”李開複認為,“AI-First 應用很快將井噴,2025年將會是AI-First應用爆發、大模型‘落地為王’的元年。”
他指出,因為模型訓練所用的數據量已經觸及瓶頸,以及算力方面也存在著客觀製約因素,預訓練階段的 Scaling Law正在放緩。好在行業內已經出現了新的曙光,Scaling Law 正從預訓練階段轉向推理階段,也就是慢思考模式。過去,預訓練階段的 Scaling Law指的是——有更多的 GPU、更多的數據,模型就可以變得更聰明,但目前其增長趨勢放緩了。而新的慢思考 Scaling Law是——模型思考的時間更長,就會得出更優質的結果。
“目前看來,慢思考 Scaling Law 下,模型性能的成長速度非常快,而且還有很大的增長空間。”李開複表示,“結合這些新的技術創新,現在模型訓練的過程變得更像是先訓練一個‘文科生’,讓模型閱讀所有書籍,然後再向‘理科生’方向訓練,讓模型能夠證明數學題、會寫代碼,最終得到厲害的‘文理雙全’模型。”
在李開複看來,隨著現在企業和用戶已經經過“DeepSeek Moment”的市場教育,中國市場真正覺醒了,這也為 中國AI-First應用的爆發掃清了一大障礙。今年人工智能的一個焦點問題應該是:Make AI Work,讓大模型真正賦能千行百業。
據他介紹,鑒於DeepSeek落地到企業生產力場景中仍存在許多需要克服的卡點困難。零一萬物在過去幾個月做了戰略調整,已經全面擁抱 DeepSeek,並且把大部分力量用於把DeepSeek優質基座模型轉變為企業級DeepSeek部署定製解決方案——可以類比為零一萬物在打造AI 2.0時代的Windows系統,而DeepSeek就是驅動Windows的內核。(文猛)