豆包大模型發佈年度技術盤點,首次披露300萬長文本能力

新浪科技訊 12月30日下午消息,今日,字節豆包大模型對外披露2024全領域技術進展。距5月15日首次亮相僅7個月,豆包大模型在通用語言、視頻生成、語音對話、視覺理解等方面模型能力均已跨入國際第一梯隊。豆包大模型團隊表示,“從孩童般學語,到懵懂看世界,到為創作者繪出想像中的奇幻夢境,一切依然處於最早期。”

截至2024年12月,最新版豆包通用模型Doubao-pro-1215,綜合能力較5月提升32%,已全面對齊GPT-4o,在數學、專業知識等部分複雜場景任務中,效果表現甚至更好。通過海量數據優化、提升模型稀疏度、引入強化學習、系統性工程優化等方式,團隊大幅提升了Doubao-Pro理解精度和生成質量,並實現了性能與效率的平衡,推理服務價格僅為GPT-4o的八分之一。

圖像與視頻能力方面,團隊於9月推出兩款豆包視頻生成模型PixelDance與Seaweed,主打複雜提示詞精準理解、鏡頭一致、多交互主體和鏡頭靈活控製。豆包文生圖模型不斷迭代,還推出了通用圖像編輯能力,讓“一句話P圖”和“一鍵海報生成”成為現實。此外,12月發佈的豆包視覺理解模型Doubao-vision,可融合視覺與語言多感官深度思考和創作,目前模型能力在十多個主流數據集上比肩Gemini 2.0與GPT-4o。

語音大模型賦予機器“聽”與“說”的能力,豆包大模型團隊今年推出了全新的語音識別模型Seed-ASR和語音生成基座模型Seed-TTS,通過引入多樣、廣泛的數據,融合推理鏈,賦予模型極強的泛化性。據悉,豆包語音模型可聽懂20種以上方言夾雜的對話,也能邊聽邊思考,並在會話中表達情感,保留吞音、口音等人類習慣,甚至在交互中可隨時被打斷。

較語音更進一步,豆包大模型已擁有高品質的“唱作”能力,從詞曲編輯、演奏生成到人聲演唱,“一個AI也可以是一個樂隊”已經成為現實。其背後依託的音樂生成模型框架Seed-Music,結合了語言模型與擴散模型的優勢,實現了音樂生成的通用框架,擁有極高的編輯可控性。

團隊還首次對外披露了豆包大模型300萬字窗口的長文本能力,可一次輕鬆閱讀上百篇學術報告,每百萬tokens處理延遲僅需15秒。這一上下文窗口長度和時延水平達到目前業界極限。背靠STRING等上下文關聯數據算法和模型加速優化,團隊大幅提升了LLM利用海量外部知識的能力,並通過稀疏化及分佈式方案將時延降到十秒級。

代碼能力方面,豆包代碼大模型Doubao-coder編程能力達到專業級,深度支持超16種編程語言、11類真實應用場景,可滿足前後端開發、機器學習等全棧編程開發需求。

成立極短時間內,豆包大模型團隊還對AI基礎研究深入佈局。過去幾個月,團隊57篇論文中選ICLR、CVPR、NeurIPS等頂會,研究成果包括下載量超百萬的開源項目及GitHub萬星爆款。

同時,豆包大模型團隊與近20所高校深入合作,支持超過40位頂尖學者參與關鍵AI技術攻堅,並與清華AIR、北大分別成立聯合實驗室。為儲備最具潛力的研究人才,豆包大模型團隊啟動了“Top Seed人才計劃”,在全球範圍招募頂尖博士畢業生加入,共同挑戰世界級AI課題。

根據披露,豆包大模型相關技術能力目前支撐了包括豆包、即夢、豆包MarsCode等50多個C端應用場景,其中,豆包APP已成為國內最受歡迎的AI產品。通過火山引擎,豆包大模型服務了30多個行業,日均tokens調用量超4萬億,較5月發佈時增長33倍。(羅寧)