微軟開源 bitnet.cpp 1-bit LLM 推理框架:不靠 GPU 可本地運行千億參數 AI 模型,能耗最多降低 82.2%

IT之家 10 月 19 日消息,科技媒體 marktechpost 昨日(10 月 18 日)發佈博文,報導稱微軟公司開源了 bitnet.cpp這是一個能夠直接在 CPU 上運行、超高效的 1-bit 大語言模型(LLM)推理框架。

用戶通過 bitnet.cpp 框架,不需要借助 GPU,也能在本地設備上運行具有 1000 億參數的大語言模型,實現 6.17 倍的速度提升,且能耗可以降低 82.2%。

傳統大語言模型通常需要龐大的 GPU 基礎設施和大量電力,導致部署和維護成本高昂,而小型企業和個人用戶因缺乏先進硬件而難以接觸這些技術,而 bitnet.cpp 框架通過降低硬件要求,吸引更多用戶以更低的成本使用 AI 技術。

bitnet.cpp 支持 1-bit LLMs 的高效計算,包含優化內核以最大化 CPU 推理性能,且當前支持 ARM 和 x86 CPU,未來計劃擴展至 NPU、GPU 和移動設備。

根據初步測試結果,在 ARM CPU 上加速比為 1.37x 至 5.07x,x86 CPU 上為 2.37x 至 6.17x,能耗減少 55.4% 至 82.2%。

bitnet.cpp 的推出,可能重塑 LLMs 的計算範式,減少對硬件依賴,為本地 LLMs(LLLMs)鋪平道路。

用戶能夠在本地運行模型,降低數據發送至外部服務器的需求,增強隱私保護。微軟的「1-bit AI Infra」計劃也在進一步推動這些模型的工業應用,bitnet.cpp 在這一進程中扮演著重要角色。

IT之家附上參考地址