超越Claude 3.5緊追o1,DeepSeek-V3-Base開源,編程能力暴增近31%

在 2024 年底,探索通用人工智能(AGI)本質的 DeepSeek AI 公司開源了最新的混合專家(MoE)語言模型 DeepSeek-V3-Base。不過,目前沒有放出詳細的模型卡。 

HuggingFace 下載地址:https://huggingface.co/DeepSeek-ai/DeepSeek-V3-Base/tree/main

具體來講,DeepSeek-V3-Base 採用了 685B 參數的 MoE 架構,包含 256 個專家,使用了 sigmoid 路由方式,每次選取前 8 個專家(topk=8)。 

圖源:X@arankomatsuzaki 圖源:X@arankomatsuzaki 

該模型利用了大量專家,但對於任何給定的輸入,只有一小部分專家是活躍的,模型具有很高的稀疏性。 

圖源:X@Rohan Paul 圖源:X@Rohan Paul 

從一些網民的反饋來看,API 顯示已經是 DeepSeek-V3 模型。 

圖源:X@ruben_kostard 圖源:X@ruben_kostard 

同樣地,聊天(chat)界面也變成了 DeepSeek-v3。 

圖源:X@Micadep 圖源:X@Micadep 

那麼,DeepSeek-V3-Base 性能怎麼樣呢?Aider 多語言編程測評結果給了我們答案。 

先來瞭解一下 Aider 多語言基準,它要求大語言模型(LLM)編輯源文件來完成 225 道出自 Exercism 的編程題,覆蓋了 C++、Go、Java、JavaScript、Python 和 Rust 等諸多編程語言。這 225 道精心挑選的最難的編程題給 LLM 帶來了很大的編程能力挑戰。 

該基準衡量了 LLM 在流行編程語言中的編碼能力,以及是否有能力編寫可以集成到現有代碼的全新代碼。 

從下表各模型比較結果來看,DeepSeek-V3-Base 僅次於 OpenAI o1-2024-12-17 (high),一舉超越了 claude-3.5-sonnet-20241022、Gemini-Exp-1206、o1-mini-2024-09-12、gemini-2.0-flash-exp 等競品模型以及前代 DeepSeek Chat V2.5。 

其中與 V2.5(17.8%)相比,V3 編程性能暴增到了 48.4%,整整提升了近 31%。 

另外,DeepSeek-V3 的 LiveBench 基準測試結果也疑似流出。我們可以看到,該模型的整體、推理、編程、數學、數據分析、語言和 IF 評分都非常具有競爭力,整體性能超越 gemini-2.0-flash-exp 和 Claude 3.5 Sonnet 等模型。 

圖源:reddit@homeworkkun 圖源:reddit@homeworkkun 

HuggingFace 負責 GPU Poor 數據科學家 Vaibhav (VB) Srivastav 總結了 DeepSeek v3 與 v2 版本的差異: 

根據配置文件,v2 與 v3 的關鍵區別包括: 

vocab_size:v2: 102400 v3: 129280 

hidden_size:v2: 4096 v3: 7168

intermediate_size:v2: 11008 v3: 18432

隱藏層數量:v2:30 v3:61  

注意力頭數量:v2:32 v3:128  

最大位置嵌入:v2:2048 v3:4096

v3 看起來像是 v2 的放大版本。 

圖源:X@reach_vb 圖源:X@reach_vb 

值得注意的是,在模型評分函數方面,v3 採用 sigmoid 函數,而 v2 採用的是 softmax 函數。 

網民熱評:開源模型逼近 SOTA

眾多紛紛網民表示,Claude 終於迎來了真正強勁的對手,甚至在一定程度上 DeepSeek-V3 可以取代 Claude 3.5。 

還有人感歎道,開源模型繼續以驚人的速度追趕 SOTA,沒有放緩的跡象。2025 年將成為 AI 最重要的一年。 

參考鏈接: 

https://aider.chat/docs/leaderboards/ 

https://www.reddit.com/r/LocalLLaMA/comments/1hm4959/benchmark_results_deepseek_v3_on_livebench/ 

本文來自微信公眾號「機器之心」,編輯:杜偉、小舟,36氪經授權發佈。