英偉達新 nGPT 架構撬動 AI 未來:超球面學習提效,訓練模型時間可縮短至 1/20

IT之家 10 月 22 日消息,科技媒體 dataconomy 昨日(10 月 21 日)發佈博文,報導稱英偉達在訓練 AI 模型方面取得重大突破,發佈了最新的 Normalized Transformer(nGPT)新架構,保持模型的穩定性和準確性的前提下,可以將訓練 AI 時間縮短至 1/4 或者 1/20。

nGPT 架構提升效率的秘訣在於「超球面學習」(Hyperspherical learning)這個概念。

傳統的變換器模型通常缺乏一致的幾何框架,而 nGPT 通過將嵌入、注意力矩陣和隱藏狀態等關鍵組件映射到超球面表面,確保模型各層在訓練過程中保持平衡。

這種幾何結構有助於創造更穩定高效的學習過程:

  • 減少訓練步驟:nGPT 不再直接對模型權重應用權重衰減,而是依賴學習到的縮放參數,優化模型在訓練中的調整方式。

  • 簡化過程:此方法消除了對 LayerNorm 或 RMSNorm 等歸一化技術的需求,使訓練過程更為簡單和快速。

英偉達團隊使用 OpenWebText 數據集進行測試,nGPT 在速度和效率上均優於傳統的 GPT 模型。對於長達 4000 個 tokens 的文本輸入,nGPT 所需的訓練輪次遠少於傳統模型,顯著縮短了訓練時間。

nGPT 的一個關鍵優勢是將歸一化(normalization)和表示學習(representation learning)結合成一個統一框架,這種設計簡化了模型架構,便於擴展和適應更複雜的混合系統。未來,nGPT 的方法可能被整合進其他類型的模型和架構,從而開發出更強大的 AI 系統。

IT之家附上參考地址