今天小編(寸飛蘭)要和大家分享的是剛剛,OpenAI 一口氣發布三個新模型!還為此做了一個新網站,歡迎閲讀~
就在剛剛,OpenAI 宣布在其 API 中推出全新一代音頻模型,包括語音轉文本和文本轉語音功能,讓開發者能夠輕松構建強大的語音 Agent。
新產品的核心亮點概述如下
gpt-4o-transcribe ( 語音轉文本 ) :單詞錯誤率 ( WER ) 顯著降低,在多個基準測試中優于現有 Whisper 模型
gpt-4o-mini-transcribe ( 語音轉文本 ) :gpt-4o-transcribe 的精簡版本,速度更快、效率更高
gpt-4o-mini-tts ( 文本轉語音 ) :首次支持「可引導性」 ( steerability ) ,開發者不僅能指定「説什麼」,還能控制「如何説」
據 OpenAI 介紹,新推出的 gpt-4o-transcribe 采用多樣化、高質量音頻數據集進行了長時間的訓練,能更好地捕獲語音細微差别,減少誤識别,大幅提升轉錄可靠性。
因此,gpt-4o-transcribe 更适用于處理口音多樣、環境嘈雜、語速變化等挑戰場景,比如客户呼叫中心、會議記錄轉錄等領網域。
gpt-4o-mini-transcribe 則基于 GPT-4o-mini 架構,通過知識蒸餾技術從大模型轉移能力,雖然 WER(越低越好)稍高于完整版模型,但仍舊優于原有 Whisper 模型,更适合資源有限但仍需高質量語音識别的應用場景。
這兩款模型在 FLEURS 多語言基準測試中的表現超越了現有的 Whisper v2 和 v3 模型,尤其在英語、西班牙語等多種語言上表現突出。
定價方面,GPT-4o-transcribe 與之前的 Whisper 模型價格相同,每分鍾 0.006 美元,而 GPT-4o-mini-transcribe 則是前者的一半,每分鍾 0.003 美元。
與此同時,OpenAI 還發布了新的 gpt-4o-mini-tts 文本轉語音模型。首次讓開發者不僅能指定「説什麼」,還能控制「如何説」。
具體而言,開發者可以預設多種語音風格,如「平靜」、「衝浪者」、「專業的」、「中世紀騎士」等,它還能根據指令調整語音風格,如「像富有同情心的客服 Agent 一樣説話」,定價親民,僅為每分鍾 0.015 美元。
安全不能馬虎,OpenAI 表示,gpt-4o-mini-tts 将接受持續監控,以保證其輸出與預設的合成風格保持一致。
這些技術進步的背後源于 OpenAI 的多項創新:
新音頻模型建立在 GPT-4o 和 GPT-4o-mini 架構之上,采用真實音頻數據集進行預訓練
應用 self-play 方法創建的蒸餾數據集的知識蒸餾方法,實現從大模型到小模型的知識轉移
在語音轉文本技術中融入強化學習 ( RL ) ,顯著提升轉錄精度并減少「幻覺」現象。
在凌晨的直播中,OpenAI 向我們展示了一款 AI 時尚顧問 Agent 的應用案例。
當用户詢問「我最近的訂單是什麼?」時,系統流暢回應:用户于 2 月 9 日訂購的 Patagonia 短褲已發貨,并在後續提問中準确提供了訂單号「A.D. 507」。
值得一提的是,OpenAI 演示人員還介紹了兩種構建語音 Agent 技術路徑,第一種「語音到語音模型」采用端到端的直接處理方式。
系統可直接接收用户語音輸入并生成語音回復,無需中間轉換步驟。這種方式處理速度更快,已在 ChatGPT 的高級語音模式和實時 API 服務中得到應用,非常适合對響應速度要求極高的場景。
第二種「鏈式方法」則是本次發布會的重點。
它将整個處理流程分解為三個獨立環節:首先使用語音轉文本模型将用户語音轉為文字,然後由大型語言模型 ( LLM ) 處理這些文本内容并生成回應文本,最後通過文本轉語音模型将回應轉為自然語音輸出。
這種方法的優勢在于模塊化設計,各組件可獨立優化;處理結果更穩定,因為文本處理技術通常比直接音頻處理更成熟;同時開發門檻更低,開發者可基于現有文本系統快速添加語音功能。
OpenAI 還為這些語音互動系統提供了多項增強功能:
支持語音流式處理,實現連續音頻輸入和輸出
内置噪音消除功能,提升語音清晰度。
語義語音活動檢測,能夠識别用户何時完成發言
提供追蹤 UI 工具,方便開發者調試語音代理
目前,這些全新音頻模型已向全球開發者開放。
你還可以在 http://OpenAI.fm 上體驗并制作 gpt-4o-mini-tts 的相關音頻,這個演示網站可謂是功能齊全,左下角是官方的預設模板,主要包括人設、語氣、方言、發音等設定。
我們也實測了一段八百标兵奔北坡的繞口令,emmm,中文效果馬馬虎虎。至于英文效果,聽它念着詩歌,倒是挺有真人那味了,但無論是與此前走紅的 Hume AI 亦或者 Sesame 相比,「肉耳可聽」地還差點火候。
此外,OpenAI 推出了與 Agents SDK 的集成,進一步簡化開發流程。
值得一提的是,OpenAI 還舉辦了一個廣播比賽。用户可以在 http://OpenAI.fm 制作音頻,接着使用 OpenAI.fm 上的「分享」按鈕生成鏈接,然後在 X 平台分享該鏈接。
最具創意的前三名将各獲一台限量版 Teenage Engineering OB-4。音頻時長建議控制在 30 秒左右,可在語音、表達、發音或劇本語調變化上盡情發揮創意。
實際上,今年 AI 的風向也在悄然發生變化,除了依舊強調智商,還多出一股趨勢,強調情感。
GPT-4.5、Grok 3 的賣點是情商,寫作更有創意,回應更個性化,而冷冰冰的機器人(智元機器人),也強調更拟人,主打一個情緒價值。
由于直接觸及人類最本能的溝通方式,語音領網域在這方面的發力則更加顯著。
最近在硅谷走紅的 Sesame AI 能夠實時感知用户情緒,并生成情感共鳴的回應,迅速俘獲了一大批用户的心。圖靈獎得主 Yann lecun 最近也在強調,未來的 AI 需要擁有情感。
而無論是 OpenAI 今天發布的全新語音模型、還是即将發布的 Meta Llama 4 都有意往原生語音對話靠攏,試圖通過更自然的情感互動拉近與用户的距離,靠「人味」圈粉。
AI 需要有人味嗎?長期以來。聊天機器人通常被定義為沒有情感的工具,它們也會在對話中提醒你,它是一個沒有靈魂的模型。然而,我們卻往往能從中解讀出情緒價值,甚至不自覺地與之建立情感聯結。
或許人類天生渴望被理解、被陪伴,哪怕這種理解來自一台機器。
關于剛剛,OpenAI 一口氣發布三個新模型!還為此做了一個新網站就分享完了,您有什麼想法可以聯系小編(寸飛蘭)。