AMD新顯卡發佈!挑戰英偉達屢戰屢敗,差距到底在哪裡?

來源:雷科技AI硬件組 | 編輯:TSknight | 排版:GUAN

前段時間,AMD在舊金山正式發佈了一系列全新的產品,包括新一代的AI PC處理器、EPYC處理器、GPU加速卡等多款重磅產品。作為英偉達為數不多的友商,AMD對這一波新品寄予厚望,發佈會還特意邀請了OpenAI、微軟等巨頭的大佬來站台,然而市場對其產品卻不看好,其股價也應聲下跌。難道AMD挑戰英偉達的計劃,還沒開始就結束了?

AMD為何追不上英偉達?

AMD作為目前唯一一個有能力在GPU加速卡領域向英偉達發起挑戰的廠商,其實很難說他們是失敗者,畢竟除英偉達之外,其餘廠商加起來也是不如AMD能打的。從AMD此次發佈的一系列新品來看,其正在加快追趕英偉達的步伐,以最新的Instinct MI325X為例,其推理性能甚至比英偉達剛發貨的H200還高20%以上。

不過強大的推理性能是靠遠大於H200的顯存所換來的,MI325X擁有多達256GB的HBM3E內存,這是目前全球性能最強的內存,連帶著內存帶寬也從5.3TB/s升級到6TB/s,成為AMD進一步拉升MI325X推理性能的一環。

圖源:AMD圖源:AMD

而在AI運算性能上,MI325X並沒有比MI300X提高多少,FP16精度下算力為1.3PFlops,作為對比,英偉達H200的FP16算力為1.979PFlops,差距仍然十分明顯,更何況英偉達還提供具有同樣算力性能的H100。

雖然在算力上有著明顯的差距,但是MI325X的功耗卻並不低,根據AMD透露的消息,其單顆核心的功耗高達1000W,與英偉達H200基本持平。在過去的一年里,大多數企業都將資源投入到了AI模型的訓練中,因此需要大量的算力資源支撐,在部署空間有限的情況下,英偉達的H100顯然是最好的選擇。

更何況H100是英偉達在2022年3月份發佈的GPU加速卡,從中也不難看出在芯片算力層面,英偉達與AMD的技術差距仍然非常明顯。而且,英偉達在前段時間發佈了H100的繼任者B200,算力和推理能力都得到了顯著的提升,其中FP16精度下的運算性能直接飆升到5PFlops,是H100的2.5倍,是MI325X的3.8倍。

圖源:英偉達圖源:英偉達

3.8倍的算力差距已經不是價格或者功耗可以彌補的差距了,即使你可以通過部署4台MI325X服務器來獲得媲美1台B200服務器的算力,但是也會面對更多的維護、調試和Debug麻煩。更何況,在多數情況下,計算中心的內部空間都是有限的,如何在有限的空間里塞入更多的算力,往往是企業考慮得更多的問題。

所以,AMD在過去的半年時間里,即使發佈了更具性價比的MI300X,也依然無法撼動英偉達的地位,甚至不需要去討論生態等問題,僅僅一個算力規模和效率差距就已經讓AMD難以招架。

不過AMD的AI業務還是得到了不少的訂單,原因主要是英偉達的產能無法滿足所有需求,外溢的訂單轉而被AMD接受,此外如微軟等企業,也在通過採購AMD GPU的方式來降低對英偉達的依賴。

只是情況如你所見,微軟、OpenAI、Google等企業最新最大的AI算力集群,仍然都是將英偉達的H200列為首選。而AMD的MI300X等GPU,則主要被部署到其他數據中心,作為雲端算力支持進行儲備。

如果企業們仍然以AI算力為基準去配置數據中心,那麼AMD想要戰勝英偉達,只能祈禱奇蹟發生,讓他們打造出一款算力效率超過B200的芯片。不過,事情並非沒有轉機,隨著AI大模型的訓練規模達到一定高度,企業也逐漸將目光投向了應用層面,而這就是AMD的機會了。

在AI落地端發力,

AMD能否換道超車?

不管是微軟還是OpenAI,所有的AI廠商其實都在思考一個問題:AI服務推廣,或者說:如何讓AI服務被更多的人使用?

想要解決這個問題,首先需要搞掂AI成本,以OpenAI為例,其在2024年預計將面臨50億美元的虧損,其中除了新建數據中心所需要投入的資金外,其餘大多是維護和運營現有算力中心的成本,而ChatGPT高達19.99美元/月的高級訂閱會員,已經讓多數用戶「搖頭」,不少人都希望OpenAI可以降低資費,那麼就能夠獲得更多的客戶。

實話說,對於OpenAI而言,19.99美元的價格其實並不能確保其盈利,如果用戶將其用於訓練自己的大模型或是其他用途,那麼實際上的算力成本會大大超出OpenAI向你收取的訂閱費用,這也是為何前段時間他們突然開始加大力度封禁部分違規使用的賬戶,正是因為成本的激增正在進一步降低OpenAI的利潤。

雖然很多時候我們都將GPU加速卡的AI算力看作是一個整體,但是在實際的應用中,用於預訓練的算力性能與用於推理的算力性能,其實並不能直接等同。其中,推理性能主要決定的是在已加載的AI模型下,GPU能夠提供的運算性能,在功耗固定的情況下,推理算力越強,GPU在執行AI任務時的成本就越低。

換言之,如果企業想降低AI服務的成本,讓AI可以被應用到更廣泛的領域,那麼推理效率高的GPU就是必選項。那麼AMD MI325X的定位就很明顯了:為企業提供更低成本的AI算力,支撐AI應用落地。

實話說這個賽道英偉達不是沒有注意到,今年才開始交付的H200就是為瞭解決推理成本發佈的產品,其核心雖然仍是H100,但是卻擁有141GB顯存(H100為80GB),同時也對顯存帶寬進行了升級,進一步強化推理性能。

圖源:英偉達圖源:英偉達

但是這還不夠,隨著AI應用的規模擴大,AI服務對算力的需求也在呈現爆髮式的增長,而H200的供應卻難以滿足需求,這時候MI325X的優勢就體現出來了,不僅擁有高達256GB的顯存,而且價格比H200更低,供應也比H200充足。

所以,你可以看到微軟、OpenAI等企業為AMD站台,不僅僅是為了降低英偉達對他們的掌控力,同樣也是為了可以提前買到更多的MI325X,並將其作為普及AI服務的關鍵。

至少,在英偉達的B200批量出貨前,MI325X都會是數據中心的優選,至於B200發佈後如何應對,也就只能見招拆招了。畢竟從目前的情況來看,AMD不大可能在2025年前開發出性能接近B200的GPU,此前海外媒體推論,最快要到2026年,AMD才可能擁有接近B200性能的GPU,屆時英偉達的B200乃至GB200(2*B200組成的單個GPU)都已經批量發貨,AMD也將面臨與今年年初類似的尷尬場景。

只能說AMD還是有機會的,即使無法撼動英偉達的領先地位,也可以搶下不少的市場份額。AI已經開始全面融入我們的生活,不管你承不承認,很多領域都已經與AI產生了聯繫,隨著AI的進一步普及,也將更多地參與到民生經濟中,為了維持AI社會的運轉將需要龐大的算力,遠非現在的數據中心可以滿足的。

所以,AMD還有時間,而英偉達也需要對自己的這個競爭對手投入更多的關注,畢竟AMD與英特爾的市場爭奪戰就是一個很好的前車之鑒,英偉達稍有懈怠或許就會被AMD超越也說不定。