科大訊飛劉慶峰:自主可控和軟硬一體才能實現大模型深度落地

「只有自主可控的繁榮生態,才有中國通用人工智能的大未來。」

6月27日,科大訊飛股份有限公司(科大訊飛,002230)發佈訊飛星火大模型V4.0及相關落地應用。該模型基於全國首個國產萬卡算力集群「飛星一號」訓練,模型能力全面對標GPT-4 Turbo,並在文本生成、語言理解、知識問答、邏輯推理、數學能力等方面實現超越。在圖文識別能力方面,已領先GPT-4o。

科大訊飛董事長劉慶峰在發佈會上表示,這標誌著完全自主可控的大模型進入了一個階段,有重要意義。

他表示,在中美科技人工智能最激烈的博弈之下,國產大模型底座的能力和支撐,決定了能在這條路上走多遠,決定了能否在這一波人工智能浪潮中享受更多紅利,只有自主可控的繁榮生態,才有中國通用人工智能的大未來。

劉慶峰在訊飛星火大模型發佈會上發言       澎湃新聞記者 秦盛 圖劉慶峰在訊飛星火大模型發佈會上發言       澎湃新聞記者 秦盛 圖

星火大模型V4.0的長文本能力也得到升級,並針對長文檔知識問答的幻覺問題,正選溯源功能。在國內外12項大模型主流測試集中,訊飛星火在8個測試集中排名第一,超越GPT-4 Turbo等國際大模型。

日前,科大訊飛作為第一完成單位的《多語種智能語音關鍵技術及產業化》項目,獲得國家科學技術進步獎一等獎,此次發佈會上也進行了一次「炸裂」的展示。

劉慶峰稱,語音將成為萬物互聯時代人機交互的主要方式,人機交互最重要的場景是遠場、噪聲、多人說話、多語言,因此萬物互聯時代的AIUI(人工智能用戶界面)要滿足遠場高噪聲、多語言多方言、全雙工、多模態等標準。

星火語音大模型在升級後能夠支持37個語種和37種方言免切換對話。在發佈會現場,演示人員演示了在訊飛輸入法連續用上海話等多種方言以及日語等多個語種進行對話,都被精確識別。

據介紹,37個語種的識別能力優於OpenAI whisper-V3,37個方言識別效果平均提升30%。

同時,科大訊飛還展示了強幹擾場景下的語音識別,在三人同時講話並有背景聲音的演示中,實現了三人重疊語音的角色分離,並實時轉寫出每個人說的話。

此外,科大訊飛還發佈了星火企業智能體平台,包括商機助手、評標助手等智能體案例功能。

面向未來的人工智能新生態,劉慶峰強調,要關注源頭技術生態、智能體生態、應用生態和行業生態,實現自主可控和軟硬一體,才能實現大模型的深度落地;既要科學理性地認識中美在大模型上的綜合差距,也要有信心快速追趕。

劉慶峰表示:「一定要看到中美之間的差距才能夠迎頭趕上,絕不能盲目自信,盲目的認為我們都已經超越了。」

此外,他還表示,要給出從源頭技術、到產業生態、再到應用落地的一整套的打法,以長期主義來打造真正自主可控的AI產業生態。