曝OpenAI爆款產品重大缺陷,捏造事實、瞎編藥物,或殃及30000名醫生

智東西10月28日報導,OpenAI的AI轉錄工具Whisper被曝出,在文本轉錄和翻譯時會出現整句幻覺!

外媒美聯社採訪了十幾位工程師、開發人員和學術研究人員發現,OpenAI的AI轉錄工具Whisper很容易編造大段文本甚至整句話,這些幻覺中包含種族評論、暴力言論,甚至會編造醫生和患者的對話

Whisper是2020年9月OpenAI推出的一款開源AI語音轉文字工具,其在英語語音識別方面的穩健性和準確性已達到人類水平,並且支持其他98種語言的自動語音辨識。截至目前,Whisper的使用範圍已經涵蓋了全球數千家公司,並且僅上個月開源AI平台HuggingFace中Whisper的最新版本下載量就超過420萬次,基於Whisper構建的工具已經有超過30000名臨床醫生和40個醫療系統使用。

密歇根大學的一名研究人員在進行一項關於公開會議的研究時透露,在他開始嘗試改進模型之前,他發現他檢查的每10個音頻轉錄中就有8個出現幻覺;一位機器學習工程師稱,他最初分析了100多個小時的Whisper轉錄樣本,發現其中約有一半內容存在幻覺。還有開發人員透露,他用Whisper創建的26000份轉錄樣本中幾乎每一份都發現了幻覺

幻覺是指大模型在生成文本、回答問題或進行其他輸出時,會產生一些看似合理但實際上是錯誤的信息。這些信息沒有事實依據,就好像模型產生了 「幻覺」。

即使是錄製良好的短音頻樣本,轉錄幻覺的問題仍然存在。計算機科學家最近進行的一項研究發現,在他們檢查的13000多個清晰音頻片段中,有187個片段中出現幻覺

例如下圖中,音頻文件的原話是「她接了電話後,她開始祈禱」,轉錄的內容為「我感覺我要摔倒了,我感覺我要摔倒了,我感覺我要摔倒了」。

原音頻為「嗯,她的父親再婚後不久就去世了」,但AI將其轉錄為「沒關係。只是太敏感了,不方便透露。她確實在65歲時去世了」。

這種趨勢或許將導致數百萬條錄音中出現數萬處錯誤的轉錄,這對於事關人們健康安全的醫療行業影響更為深遠。

一、40%轉錄幻覺有害,AI自作主張補充對話細節

Whisper目已集成到OpenAI旗艦聊天機器人ChatGPT的某些版本中,同時也是甲骨文和微軟雲計算平台的內置產品。HuggingFace的機器學習工程師Sanchit Gandhi說,Whisper是最受歡迎的開源語音識別模型,並被嵌入到從呼叫中心到語音助手等各種設備中。

因此,使用範圍最廣的Whisper,被發現出現大量幻覺也更令使用者擔憂。

美國康奈爾大學的艾莉森·干尼克教授和美國維珍尼亞大學的莫娜·史隆教授研究了他們從卡內基梅隆大學的研究資料庫TalkBank獲得的經轉錄的數千個簡短片段。他們確定,Whisper產生的幻覺中有近40%的是有害或令人擔憂的,因為說話者可能會被誤解或歪曲。

在他們發現的一個例子中,一位發言者說道:「他,那個男孩,我不太確定,要拿走雨傘。

但轉錄軟件補充道:「他拿了十字架的一大塊和一小塊碎片……我敢肯定他沒有帶恐怖刀,所以他殺了很多人。

另一段錄音中的一位發言人描述了「另外兩名女孩和一名女士」。Whisper編造了關於種族的額外評論,補充說「另外兩名女孩和一名女士,嗯,是黑人。

在第三次轉錄中,Whisper發明了一種不存在的藥物,稱為「高活性抗生素」。

研究人員並不確定Whisper和類似工具為何會產生幻覺,但軟件開發人員稱,幻覺往往發生在說話聲音暫停,出現背景聲音或有音樂播放時

二、被用於700萬次就診記錄,原始音頻文件被刪除

OpenAI曾在其在線披露中建議不要在「決策環境中」使用Whisper,因為「決策環境的準確性缺陷可能導致結果出現明顯缺陷」。但這一警告並沒有阻止醫院或醫療中心使用Whisper等語音轉文本模型來轉錄醫生就診時所說的內容,因為這些工具可以幫助醫務人員花更少的時間做筆記或撰寫報告。

目前,有超過30000名臨床醫生和40個醫療系統已開始使用由美國數字健康創企Nabla開發的基於Whisper的轉錄工具。Nabla首席技術官馬田·雷森(Martin Raison)稱,這一工具根據醫學語言進行了微調,可以轉錄和總結醫生與患者的互動,該工具已用於記錄約700萬次醫療就診記錄。不過,這家創企的負責人也透露,他們知道Whisper可能會產生幻覺並正在解決這個問題。

▲Nabla官網主頁的AI工具介紹▲Nabla官網主頁的AI工具介紹

雷森稱,他們無法將Nabla生成的記錄與原始錄音進行比較,因為Nabla的工具會出於「數據安全原因」刪除原始音頻。OpenAI前工程師威廉·辛特斯(William Saunders)認為,如果沒有仔細檢查記錄,或者臨床醫生無法訪問錄音來驗證其是否正確,刪除原始音頻可能會令人擔憂。因為「如果你拋棄了基本事實,你就無法發現錯誤」。

Nabla的相關負責人認為,沒有一種模型是完美的,目前他們的模型要求醫療服務提供者快速編輯和批準轉錄的記錄,但未來他們或許會改變這種操作模式。

去年之前一直擔任美國科技政策辦公室主任的亞倫迪拉維杜華·尼爾遜(Alondra Nelson)說,這樣的錯誤可能會產生「非常嚴重的後果」,尤其是在醫院環境中。

Whisper還用於為聾人和聽力障礙者製作隱藏式字幕——這一群體特別容易出現轉錄錯誤。負責美國加勞德特大學技術訪問項目的聾人患者基斯坦奴·沃格勒 (Christian Vogler)說:「這是因為聾人和聽力障礙者無法識別隱藏在所有其他文本中的捏造。」

三、Whisper出現幻覺頻率高於同類工具,OpenAI內部已反饋更新

更令人擔憂的是,由於患者與醫生的會面是保密的,因此其他人很難知道AI生成的記錄對醫生和患者有何影響。

美國加州議員麗貝卡·波爾-卡漢(Rebecca Bauer-Kahan)稱,今年早些時候,她帶著一個孩子去看醫生並拒絕簽署該醫療網絡提供的一份表格,該表格要求她允許將諮詢音頻分享給包括微軟Azure在內的供應商,她不希望如此私密的醫療對話被分享給科技公司。「該法案(美國加州和聯邦隱私法)明確規定營利性公司有權獲得這些權利。」但卡漢說,「我當時的反應是絕對不行。」

這種幻覺的普遍存在促使專家、倡導者和OpenAI前員工呼籲聯邦政府考慮製定AI法規。他們認為,OpenAI至少需要優先解決這一缺陷。

「如果(OpenAI)公司願意優先考慮這個問題,這個問題似乎是可以解決的。」辛特斯認為,「如果你把它推出去,人們過於自信它能做什麼,並將其整合到所有其他系統中,那就有問題了。」

據OpenAI發言人透露,公司正在不斷研究如何減少幻覺,並對研究人員的發現表示讚賞,並補充說OpenAI在模型更新中納入了反饋。

雖然大多數開發人員認為轉錄工具會出現拚寫錯誤或犯其他錯誤,但工程師和研究人員表示,他們從未見過其他AI轉錄工具像Whisper一樣產生如此多的幻覺。

結語:幻覺問題是AI應用的重大隱患

一些專家在接受媒體採訪時提到,此類捏造是有問題的,因為Whisper被全球眾多行業用來翻譯和轉錄採訪、在流行的消費技術中生成文本以及為影片創建字幕。更令人擔憂的是,儘管OpenAI警告不應在「高風險領域」使用該工具,但醫療中心仍急於使用基於Whisper的工具來記錄患者與醫生的諮詢。

即便AI公司一直在努力解決幻覺問題,但目前看來收效甚微。今年早些時候,Google的AI助手因建議使用無毒膠水來防止乳酪從披薩上掉下來而遭到批評;蘋果CEO提姆·曲克也在接受採訪時提到,幻覺可能會成為其AI未來產品的一個重要問題,並且他對這些工具是否會產生幻覺的信心程度並不是100%。

因此,如何平衡好產品開發、推向市場,與這一產品被應用到各行各業所產生的影響,對於AI產業的參與者而言都至關重要。

本文來自微信公眾號「智東西」(ID:zhidxcom),作者:程茜,編輯:心緣,36氪經授權發佈。