蘋果採用亞馬遜芯片,一個去英偉達化的信號?
亞馬遜宣佈推出了未來可能替代英偉達GPU的AI芯片。AWS的Trainium2芯片,將用來構建一個40萬卡的集群,訓練下一代Claude模型,而且蘋果宣佈會使用它來訓練和部署Apple Intelligence。
正在拉斯維加斯舉行的re:Invent大會上,AWS推出的Trn2服務器(16片Trainium2)提供20.8 Pflops性能,可訓練數十億參數模型,試圖媲美英偉達和AMD的GPU。Trn2 UltraServers(64片Trainium2)高峰時提供83.2 Pflops算力,完全可以用來訓練和部署最大的模型,包括語言、多模態和視覺模型。
AWS還宣佈了下一代AI芯片Trainium3的計劃。預計將比Trainium2提升2倍的性能,改善40%的能效,3納米製程,將於2025年底推出。
目前,亞馬遜基於Trainium1和Inferentia2的實例,在生成式AI前沿模型訓練或推理方面還不太具有競爭力,這是由於硬件規格較弱以及軟件集成較弱所致。但隨著Trainium2的發佈,亞馬遜已經做出了重大的調整,正在芯片、系統和軟件編譯器/框架層面向英偉達產品看齊,提供有競爭力的定製矽芯片解決方案。
蘋果公司也非同尋常地對外介紹了它與雲服務商之間的合作細節,並且表達出積極合作構建AI的意願。蘋果已經使用AWS服務超過十年,用於Siri、Apple Maps和Apple Music。蘋果還一直使用亞馬遜的Inferentia和Graviton芯片來支持搜索服務。蘋果方面稱,亞馬遜的這些芯片帶來了40%的效率提升。
蘋果最近還將用Trainium2進行其自有模型的預訓練。蘋果對它的初步評估顯示,預訓練效率提升了50%。蘋果在決定開發Apple Intelligence之後,馬上就找到了AWS,尋求AI基礎設施的支持。蘋果也使用過Google雲的TPU服務器。
蘋果正在引領著個人AI的應用方向,即把AI模型向端側部署,主要用本地化的計算為用戶提供定製化與個人化的AI服務,注重保護用戶的隱私。
所以,對於蘋果來說,最重要的不是用十萬張卡去訓練大模型,而是用AI更好地服務其20多億設備用戶,即在iPhone、iPad、Mac等設備上,用自研芯片提供本地算力,只有那些較複雜的計算任務才上雲端。蘋果還需要雲服務商能配合它進行隱私計算。
Apple Intelligence有自己的步調,它先推出內容提煉、起草郵件、生成表情包等最基本的功能,很快會集成OpenAI的大模型服務,明年會加強Siri功能,因為智能體技術的加持,它更像個能辦事的助理,調動手機App完成用戶吩咐的任務。
而且AWS正在與Anthropic合作,打造40萬Trainium2卡級的算力集群,用來訓練下一代的Claude大模型。這個項目名稱為Project Rainer,將為Anthropic提供的算力5倍於訓練現有模型的Eflops。亞馬遜對Anthropic最新的40億美元投資,實際上將用於這個40萬卡集群,目前還沒有其他主要客戶。
馬斯克的xAI已經建好了10萬H100算力集群,而且放也豪言要再買30萬張B200;朱克伯格正在用一個超過10萬H100的集群加班加點地訓練Llama4,更不用說微軟/OpenAI等,10萬H100已經成為參與軍備競賽的起步價。
但Trainium算力集群真的要挑戰英偉達GPU,還要付出更多努力。據半導體諮詢機構semianalysis分析,40萬顆Trainium2的原始浮點運算性能仍少於10萬GB200集群。這意味著由於阿姆達爾定律的限制,Anthropic仍將很難與競爭對手10萬卡GB200集群匹敵。在40萬顆Trainium2和EFA上執行集合通信將非常困難,因此Anthropic需要在異步訓練方面進行一些重大創新。
*作者註:EFA代表Elastic Fabric Adapter,是AWS提供的一種高性能網絡接口技術,主要用於支持高性能計算(HPC)和機器學習工作負載。
三大雲巨頭AWS、微軟Azure和Google雲,目前數據中心芯片主要來自英偉達、AMD和英特爾。同時,它們也在積極探索自己研製芯片,會帶來成本及定製化服務等方面的好處,既用於通用計算負載,也用於加速計算,如大模型的訓練和推理。AWS稱,通過Trainium,Anthropic的大模型Claude Haiku 3.5,速度比其他芯片提升了60%。
隨著生成式AI日益進入大規模應用階段,企業將會尋找更加適合具體應用、為客戶定製化、價格更親民、更具能效的芯片和算力解決方案。
2025年我們會看到一個趨勢,更多的算力會部署到推理側進行強化學習,以及AI的大規模應用,這些都對芯片、服務器、工具、架構、服務等提出新的定製化要求,從而為雲服務商的矽技術和初創芯片企業帶來新的機會。
本文來自微信公眾號:未盡研究 (ID:Weijin_Research),作者:未盡研究