AI 數學推理新王:英偉達發佈兩款 OpenMath-Nemotron 模型,刷新 AIME 準確率紀錄
IT之家 4 月 25 日消息,科技媒體 marktechpost 今天(4 月 25 日)發佈博文,報導稱英偉達專為數學推理設計,發佈 OpenMath-Nemotron-32B 和 OpenMath-Nemotron-14B-Kaggle 兩款先進 AI 模型。
數學推理一直是 AI 領域的巨大挑戰。傳統的語言模型擅長生成流暢文本,卻在解決複雜數學問題時顯得力不從心,這些問題不僅需要理解抽像概念,還要求多步驟的邏輯推導。
IT之家援引博文介紹,英偉達針對這一難題,推出了 OpenMath-Nemotron-32B 和 OpenMath-Nemotron-14B-Kaggle 兩款模型,基於 Qwen 系列 transformer 模型,通過在 OpenMathReasoning 數據集上的深度微調,顯著提升了數學推理能力。
OpenMath-Nemotron-32B 是系列中的旗艦產品,擁有 328 億參數,採用 BF16 張量運算優化硬件效率。該模型在 AIME 2024、AIME 2025、HMMT 2024-25 等多項基準測試中取得領先成績。
以工具集成推理(TIR)模式為例,其在 AIME24 上的 pass@1 準確率達到 78.4%,通過多數投票機制更是提升至 93.3%。

此外,模型支持鏈式思維(CoT)、工具集成推理(TIR)和生成式選擇(GenSelect)三種模式,用戶可根據需求平衡推理透明度和答案精確度,滿足科研和生產環境的不同場景。
OpenMath-Nemotron-14B-Kaggle 是一款 148 億參數的輕量模型,針對 AIMO-2 Kaggle 競賽優化設計,通過精選 OpenMathReasoning 數據集子集進行微調,成功奪得競賽第一名。
在 AIME24 測試中,其 CoT 模式下 pass@1 準確率為 73.7%,GenSelect 模式下提升至 86.7%。這款模型參數更少,保持高質量的數學解題能力的同時,適合資源受限或低延遲需求的場景。
英偉達為兩款模型提供了開源管道,集成於 NeMo-Skills 框架中,支持數據生成、訓練和評估的全流程複現。開發者可通過示例代碼快速構建應用,獲取逐步解答或簡潔答案。
模型針對 NVIDIA GPU(如 Ampere 和 Hopper 架構)深度優化,利用 CUDA 庫和 TensorRT 技術,確保高效運行。同時,採用 Triton Inference Server 支持低延遲、高吞吐量的部署,BF16 格式則在內存佔用與性能間取得平衡,助力大規模應用落地。
廣告聲明:文內含有的對外跳轉鏈接(包括不限於超鏈接、二維碼、口令等形式),用於傳遞更多信息,節省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。