OpenAI一口氣發佈三個新模型,還為此做了一個新網站
本文來自微信公眾號:APPSO (ID:appsolution),作者:appso,題圖來自:OpenAI
就在剛剛,OpenAI宣佈在其API中推出全新一代音頻模型,包括語音轉文本和文本轉語音功能,讓開發者能夠輕鬆構建強大的語音Agent。
新產品的核心亮點概述如下:
-
gpt-4o-transcribe(語音轉文本):單詞錯誤率(WER)顯著降低,在多個基準測試中優於現有Whisper模型
-
gpt-4o-mini-transcribe(語音轉文本):gpt-4o-transcribe的精簡版本,速度更快、效率更高
-
gpt-4o-mini-tts(文本轉語音):首次支持「可引導性」(steerability),開發者不僅能指定「說什麼」,還能控制「如何說」
據OpenAI介紹,新推出的gpt-4o-transcribe採用多樣化、高質量音頻數據集進行了長時間的訓練,能更好地捕獲語音細微差別,減少誤識別,大幅提升轉錄可靠性。

因此,gpt-4o-transcribe更適用於處理口音多樣、環境嘈雜、語速變化等挑戰場景,比如客戶呼叫中心、會議記錄轉錄等領域。
gpt-4o-mini-transcribe則基於GPT-4o-mini架構,通過知識蒸餾技術從大模型轉移能力,雖然WER(越低越好)稍高於完整版模型,但仍舊優於原有Whisper模型,更適合資源有限但仍需高質量語音識別的應用場景。
這兩款模型在FLEURS多語言基準測試中的表現超越了現有的Whisper v2和v3模型,尤其在英語、西班牙語等多種語言上表現突出。


定價方面,GPT-4o-transcribe與之前的Whisper模型價格相同,每分鐘0.006美元,而GPT-4o-mini-transcribe則是前者的一半,每分鐘0.003美元。
與此同時,OpenAI還發佈了新的gpt-4o-mini-tts文本轉語音模型。首次讓開發者不僅能指定「說什麼」,還能控制「如何說」。
具體而言,開發者可以預設多種語音風格,如「平靜」、「衝浪者」、「專業的」、「中世紀騎士」等,它還能根據指令調整語音風格,如「像富有同情心的客服Agent一樣說話」,定價親民,僅為每分鐘0.015美元。

安全不能馬虎,OpenAI表示,gpt-4o-mini-tts將接受持續監控,以保證其輸出與預設的合成風格保持一致。
這些技術進步的背後源於OpenAI的多項創新:
-
新音頻模型建立在GPT-4o和GPT-4o-mini架構之上,採用真實音頻數據集進行預訓練;
-
應用self-play方法創建的蒸餾數據集的知識蒸餾方法,實現從大模型到小模型的知識轉移;
-
在語音轉文本技術中融入強化學習(RL),顯著提升轉錄精度並減少「幻覺」現象;
-
在淩晨的直播中,OpenAI向我們展示了一款AI時尚顧問Agent的應用案例。
當用戶詢問「我最近的訂單是什麼?」時,系統流暢回應:用戶於2月9日訂購的Patagonia短褲已發貨,並在後續提問中準確提供了訂單號「A.D.507」。
值得一提的是,OpenAI演示人員還介紹了兩種構建語音Agent技術路徑,第一種「語音到語音模型」採用端到端的直接處理方式。
系統可直接接收用戶語音輸入並生成語音回覆,無需中間轉換步驟。這種方式處理速度更快,已在ChatGPT的高級語音模式和實時API服務中得到應用,非常適合對響應速度要求極高的場景。

第二種「鏈式方法」則是本次發佈會的重點。
它將整個處理流程分解為三個獨立環節:首先使用語音轉文本模型將用戶語音轉為文字,然後由大型語言模型(LLM)處理這些文本內容並生成回應文本,最後通過文本轉語音模型將回應轉為自然語音輸出。
這種方法的優勢在於模塊化設計,各組件可獨立優化;處理結果更穩定,因為文本處理技術通常比直接音頻處理更成熟;同時開發門檻更低,開發者可基於現有文本系統快速添加語音功能。
OpenAI還為這些語音交互系統提供了多項增強功能:
-
支持語音流式處理,實現連續音頻輸入和輸出;
-
內置噪音消除功能,提升語音清晰度;
-
語義語音活動檢測,能夠識別用戶何時完成發言;
-
提供追蹤UI工具,方便開發者調試語音代理。
目前,這些全新音頻模型已向全球開發者開放。

你還可以在
http://OpenAI.fm上體驗並製作gpt-4o-mini-tts的相關音頻,這個演示網站可謂是功能齊全,左下角是官方的預設模板,主要包括人設、語氣、方言、發音等設置。

我們也實測了一段八百標兵奔北坡的繞口令,emmm,中文效果馬馬虎虎。
至於英文效果,聽它唸著詩歌,倒是挺有真人那味了,但無論是與此前走紅的Hume AI亦或者Sesame相比,「肉耳可聽」地還差點火候。
此外,OpenAI推出了與Agents SDK的集成,進一步簡化開發流程。
值得一提的是,OpenAI還舉辦了一個廣播比賽。用戶可以在http://OpenAI.fm製作音頻,接著使用OpenAI.fm上的「分享」按鈕生成鏈接,然後在X平台分享。
最具創意的前三名將各獲一台限量版Teenage Engineering OB-4。音頻時長建議控制在30秒左右,可在語音、表達、發音或劇本語調變化上盡情發揮創意。

實際上,今年AI的風向也在悄然發生變化,除了依舊強調智商,還多出一股趨勢,強調情感。
GPT-4.5、Grok 3的賣點是情商,寫作更有創意,回應更個性化,而冷冰冰的機器人(智元機器人),也強調更擬人,主打一個情緒價值。

由於直接觸及人類最本能的溝通方式,語音領域在這方面的發力則更加顯著。
最近在矽谷走紅的Sesame AI能夠實時感知用戶情緒,並生成情感共鳴的回應,迅速俘獲了一大批用戶的心。圖靈獎得主Yann Lecun最近也在強調,未來的AI需要擁有情感。
而無論是OpenAI今天發佈的全新語音模型、還是即將發佈的Meta Llama 4都有意往原生語音對話靠攏,試圖通過更自然的情感交互拉近與用戶的距離,靠「人味」圈粉。
AI需要有人味嗎?長期以來,聊天機器人通常被定義為沒有情感的工具,它們也會在對話中提醒你只是一個沒有靈魂的模型。然而,我們卻往往能從中解讀出情緒價值,甚至不自覺地與之建立情感聯結。
或許人類天生渴望被理解、被陪伴,哪怕這種理解來自一台機器。
本文來自微信公眾號:APPSO (ID:appsolution),作者:appso