字節跳動發佈豆包音樂模型和同聲傳譯模型

新浪科技訊 9月24日下午消息,字節跳動旗下火山引擎在深圳舉辦AI創新巡展,一舉發佈了豆包視頻生成-PixelDance、豆包視頻生成-Seaweed兩款大模型,面向企業市場開啟邀測。

火山引擎總裁譚待表示,“視頻生成有很多難關亟待突破。豆包兩款模型會持續演進,在解決關鍵問題上探索更多可能性,加速拓展AI視頻的創作空間和應用落地。”

此外,豆包大模型不僅新增視頻生成模型,還發佈了豆包音樂模型和同聲傳譯模型,已全面覆蓋語言、語音、圖像、視頻等全模態,全方位滿足不同行業和領域的業務場景需求。

在產品能力日益完善的同時,豆包大模型的使用量也在極速增長。據火山引擎披露,截至9月,豆包語言模型的日均tokens使用量超過1.3萬億,相比5月首次發佈時猛增十倍,多模態數據處理量也分別達到每天5000萬張圖片和85萬小時語音。

此前,豆包大模型公佈低於行業99%的定價,引領國內大模型開啟降價潮。譚待認為,大模型價格已不再是阻礙創新的門檻,隨著企業大規模應用,大模型支持更大的併發流量正在成為行業發展的關鍵因素。

據譚待介紹,業內多家大模型目前最高僅支持300K甚至100K的TPM(每分鍾token數),難以承載企業生產環境流量。例如某科研機構的文獻翻譯場景,TPM峰值為360K,某汽車智能座艙的TPM峰值為420K,某AI教育公司的TPM峰值更是達到630K。為此,豆包大模型預設支持800K的初始TPM,遠超行業平均水平,客戶還可根據需求靈活擴容。

“在我們努力下,大模型的應用成本已經得到很好解決。大模型要從卷價格走向卷性能,卷更好的模型能力和服務。”譚待表示。(羅寧)