Mistral AI 和NVIDIA 發佈 Mistral NeMo 12B 參數模型 該模型旨在支持企業應用

Mistral AI 宣佈發佈 Mistral NeMo,這是一個由 NVIDIA 協作開發的 12B 參數模型,具備高達 128k 令牌的上下文窗口。該模型旨在支持企業應用,包括聊天機器人、多語言任務、編碼和摘要。在其尺寸類別中,Mistral NeMo 在推理、世界知識和代碼準確性方面均處於領先地位。使用標準架構,Mistral NeMo 易於使用,可作為任何使用 Mistral 7B 系統的直接替代品。主要特點廣泛的上下文窗口:支持高達 128k 令牌的上下文窗口,使其在處理長文本時具有明顯優勢。多語言支持

:針對全球多語言應用進行了優化,特別是在英語、法語、德語、西班牙語、意大利語、葡萄牙語、中文、日語、韓語、阿拉伯語和印地語方面表現出色。

  • 量化感知訓練:支持 FP8 推理,減少內存佔用並加快部署速度,同時不降低準確性。
  • 性能表現

    • 高性能和靈活性:Mistral NeMo模型在多輪對話、數學、常識推理、世界知識和編碼方面表現出色,提供精確可靠的性能。
    • 128K上下文長度:能夠更連貫和準確地處理複雜信息,確保輸出具有上下文相關性。
    • 企業級支持和安全:模型作為NVIDIA NIM推理微服務提供,性能優化,支持靈活部署。
    • 與其他模型的比較:在與 Gemma 2 9B 和 Llama 3 8B 的對比中,Mistral NeMo 基礎模型在多項基準測試中表現優異。
    • 高效的分詞器:Mistral NeMo 使用新型 Tekken 分詞器,比之前的 SentencePiece 分詞器在壓縮源代碼、中文、意大利語、法語、德語、西班牙語和俄語方面更高效,壓縮效率提高約 30%。對於韓語和阿拉伯語,其壓縮效率分別提高了 2 倍和 3 倍。這意味著它能以更少的存儲空間表示相同數量的文本。

    指令微調

    • 精細調優:Mistral NeMo 經過高級微調和對齊,與 Mistral 7B 相比,能夠更好地遵循精確指令、推理、處理多輪對話和生成代碼。

      官方介紹:https://mistral.ai/news/mistral-nemo

      模型下載: base and  instruct