DeepSeek真幫黃仁勳了,你們怎麼不信呢?

香港時間3月19日淩晨,站在聖荷西GTC大會的舞台上,連黃仁勳自己都調侃:GTC是AI屆的超級碗。

幾週以來,外界已經對黃仁勳在GTC的演講萬分期待。這個演講可不好做,在DeepSeek的衝擊之下,英偉達今年的股價已經下跌了12%。

這不再是發佈新產品,高喊AI就是未來就可以完成任務的演講,今年,黃仁勳需要回答很多問題。

而這場持續了兩個半小時的演講也的確和往年有很大的不同,黃仁勳在一開始就花了很長的時間去解釋為什麼推理時代縮放定律沒有死、為什麼英偉達依然非常重要。

而後,他不僅拿出了Blackwell的超大杯產品,還透露了下一代芯片,甚至下下代架構,時間一直蔓延到2028年。壓軸出場的,則和黃仁勳勾畫的AI發展路線圖中的最後一站「物理AI」相關。

黃仁勳拯救了英偉達股價嗎?至少從當日來看,截至收盤英偉達股價跌了3.43%,總市值縮水至2.82萬億美元。

到底是市場還需要幾天時間消化,還是黃仁勳「遊說」失敗,還得等等看。

演講要點:

1、發佈超大杯Blackwell Ultra,性能提升1.5倍。

2、下一代AI「超級芯片」Vera Rubin,計劃2026年底推出,並透露下下代芯片架構為Feynman,計劃2028年推出。

3、AI工廠的操作系統Dynamo,推理框架,資源利用最大化,搭配Blackwell強上加強。

4、推出「AI超級電腦」DGX Spark、DGX Station,提高本地運行大型AI模型的能力。

5、宣佈網絡組件的最新動作,推出Spectrum X和Quantum X交換機。

6、發佈首個開放式人性機器人基礎模型Isaac GROOT N1;並宣佈與GoogleDeepMind和迪士尼研究院合作開發Newton開源物理引擎。

一、現場「開課」,黃仁勳:你們真的都搞錯了

自從號稱訓練只用了幾百萬美元的DeepSeek推理模型問世,世界就沒有停止對英偉達的質疑。

起先,黃仁勳不語。然後,他開始發聲,在採訪中和財報會議上表示推理時代仍然需要大量計算,仍然需要英偉達的力量。

這次,他終於把這點攤開揉碎地說明了一番。

在發佈會上,老黃拿出例子,讓Llama3.3(LLM的代表)和DeepSeek R1(推理模型的代表)回答同一個問題:

「在我的婚禮上,需要7個人圍坐同一桌。我的父母和嶽父嶽母不能挨著坐。此外,我妻子堅稱她在我左手邊的話,拍照更好看。同時,我需要坐在伴郎身邊。我們怎麼安排座位?如果我們邀請牧師和我們坐一起呢?」

看完這個問題,大部分人可能已經頭大了。要回答它,不僅要識別其中包含多少個不同的需求,還要同時滿足所有需求。有意思的是,最後又有一個進一步的問題,需要先回答主問題再補充這個問題的答案。

Llama 3.3非常簡單粗暴,回答得很快,只用了439個tokens。但是,它的回答並不正確,未能滿足所有要求。快、省但對於提問的人來說無用。

DeepSeek R1則反復思考,嘗試了很多可能,反復檢驗答案,最終消耗了8559個tokens,才最終給出了答案。時間久,消耗大,但是給出的答案準確。

而每一個token生成的背後,都是整個模型的加載。推理模型更複雜,也就需要更多地計算。DeepSeek R1的參數規模達到6800億,下一代有可能達到數萬億參數規模。

兩相對比,DeepSeek R1比Llama 3.3多生成了20倍的tokens,計算需求高出150倍。

「大模型推理是一種極限計算。」老黃表示。

通過這個對比,老黃很直觀地告訴大家:推理模型也許預訓練的時候消耗少,但推理起來可是實打實的吸金獸啊。英偉達GTC的官方博文中,把Tokens視為AI的語言和貨幣。

「去年,關於擴展定律Scaling Law,全世界幾乎都預測錯了。」老黃在台上再次強調。他進一步指出,如今擴展定律從一個變成了三個:預訓練、後訓練(微調)和推理。

那英偉達在推理時代要做什麼呢?兩方面:一方面,讓芯片能在單位時間內處理更多tokens,另一方面,讓單位算力的成本和能耗降低。

黃仁勳此前就在財報會議上表示,Blackwell就是為推理而生的,這次演講中在說清楚推理模型為什麼需要更多算力之後,黃仁勳也拿出圖表,展開講了講這一點。

以Blackwell和Hopper做對比,都是1兆瓦功耗,Hopper數據中心每秒生成250萬tokens。Blackwell數據中心提高了25倍,如果是推理模型,則比Hopper好40倍。

這讓圖表中出現了一個向上鼓的曲線,這個曲線正是黃仁勳想讓各位AI製造商關注的「賺錢要點」。

黃仁勳稱,成本是AI輸出的token,收益就是用戶獲得的token。如果縱軸是前者,橫軸是後者,橫軸擴張更多時——也就是收益比成本擴張更多時——一個漂亮的利潤弧線就出現了。

為了強調Blackwell是為推理而生這一點,老黃甚至不惜「拉踩」Hopper,稱:「當Blackwell開始大量出貨的時候,就算你送Hopper,別人基本也不會要的。」

以前老黃總說,(英偉達AI芯片)買得越多越慳錢,現在他更進一步,告訴大家,買得越多越賺錢。

二、軟硬兼施,Blackwell超大杯與「AI工廠操作系統」Dynamo

花了40分鐘講明白為什麼英偉達依然能打,為什麼說Blackwell是為推理而生之後,黃仁勳當然還得說說新產品。

首先是Blackwell Ultra,專為AI推理時代而打造,Ultra的後綴大家也不陌生了,超大杯。

「我們專為這一刻設計了Blackwell Ultra,一個多功能平台,(利用它)可以高效地進行預訓練、後訓練和推理。」

其中GB300 NVL72在一個機架規模設計中連接了72個Blackwell Ultra芯片,并包含36個基於Arm Neoverse的Grace CPU。較上一代性能提升1.5倍,與Hopper相比收入潛力提高50倍。還是以DeepSeek R1為例,老款Hopper運行這個模型時每秒只能處理100 tokens,而GB300 NVL72每秒能處理1000 tokens。

這意味著用戶獲得回答的速度大大提高。

而HGX B300 NVL16系統相比於Hopper一代,推理速度提升11倍,計算能力提升7倍,內存大4倍。

英偉達一直都有軟硬兼施的策略,此前也針對自家的芯片做了不少優化(不過,DeepSeek的開源周展示的一些優化甚至比英偉達還強),這次黃仁勳也同步官宣了開源推理框架Dynamo。

黃仁勳將之稱為「AI工廠的操作系統」。這樣說可能有點抽像,具體來說,Dynamo像一個交通指揮官,幫助GPU之間實現更好的通信。對思考和生成可以進行獨立優化,高效利用資源。如此一來,(還是回到演講開頭強調的token問題上)每秒就能產生更多token了。

不過,黃仁勳也表示,Hopper雖然也可以用Dynamo優化,但是效果不會那麼明顯。

為推理而生的Blackwell再加上為推理優化而生的Dynamo,就是強上加強,DeepSeek R1的吞吐量一下提高30倍。

三、下一代更好:2028年還不夠遠,黃仁勳勾勒AI發展路徑圖

除了現在,黃仁勳當然還得談到未來。

英偉達下一代AI芯片Vera Rubin首次走到台前,黃仁勳介紹,該名稱來源於天文學家Vera Rubin(以暗物質研究著稱)。

其中CPU Vera內容容量是前代的4倍多,內存帶寬是前代的2倍多,而GPU Rubin講配備299GB的HRM4。

用老黃的話說就是「幾乎所有細節都是新的」。

這一代Grace Blackwell(GB)將在今年下半年發貨,Vera Rubin將在2026年下半年發貨。

黃仁勳也預告了Vera Rubin的超大杯,Rubin Ultra,對比GB300性能提升13倍,預計2027年下半年發貨。

除此之外,連Vera Rubin之後的下一代AI芯片架構也被揭露,它被命名為Feynman,這個名字同樣取自於一位科學家,對量子計算領域有突出和貢獻的Richard Phillips Feynman。黃仁勳預告,Feynman甲溝將於2028年登場。

此外,值得注意的是,在演講一開始,黃仁勳給出了AI的發展路線圖,從2012年深度學習突破的起點AlexNet開始,經歷Perception AI(感知AI,這個階段AI主要用於理解數據,如識別語音、圖片等)、Generative AI(生成式AI,也就是現階段的以ChatGPT為代表的技術)

接下來,已經看到苗頭的是Agentic AI(代理AI),從簡單的數據生成到執行任務。

而最終,AI的終極目標是Physical AI(物理AI),實現從軟件到硬件、從虛擬到現實的跨越。讓AI具備物理行動能力,如機器人和自動駕駛技術的發展。

英偉達作為AI計算的核心玩家,顯然希望引領這一進程。

對物理AI這部分的具體展開,在黃仁勳的此次演講中佔比並不算高,但作為壓軸出現,足見其重要程度。

舞台上出現了《星球大戰》中的小機器人Blue,它在舞台上走來走去、搖頭晃腦,看起來充滿好奇心,不得不說看起來就非常靈動。

這個機器人搭載了英偉達Isaac GR00T N1,號稱是全球首個開源且完全可定製的人性機器人基礎模型。模型包含雙系統架構,一個系統負責快思考,另一個負責慢思考。據英偉達介紹,該模型能輕鬆掌握抓取、移動等複雜人物。

與此同時,黃仁勳還宣佈正在與GoogleDeepMind和迪士尼研究院合作下一代開源仿真物理模型Newton,專為機器人開發而生。

「通用性機器人的時代已經到來。」

四、老黃委屈,英偉達推出好產品還遠遠不夠

英偉達的高速增長也一直伴隨著「泡沫」擔憂,很長的一段時間,這家公司不斷推出新的產品,但市場波動時有發生。很多次財報發佈時,明明業績全線飄紅,黃仁勳也大表信心,股價還是會抖三抖。

「我們發了新東西,但人們立刻就會說,好,然後呢?這放在任何公司身上都不是正常的。」

這次,黃仁勳很少見地在GTC的舞台上倒了點苦水:「這不是買個筆記本電腦」。他表示,這既需要計劃,也需要資源和人,規劃是以幾年為計的。

也許這也解釋了為什麼黃仁勳這次演講持續了兩個半小時(去年不到兩小時),為什麼他一口氣掏出這麼多成果,為什麼AI芯片連2028年的下下代都透底了,為什麼在最後拿出了AI發展路徑的最後一站「物理AI」的最新成果。

老黃這次該講的、能講的都講了,盡力了。

至於人們還會不會問「然後呢」,他也管不了了。

本文來自微信公眾號:直面AI,作者:小金牙