曝OpenAI爆款產品缺陷!捏造事實、瞎編藥物,或殃及30000名醫生

智東西編譯 程茜編輯 心緣一、40%轉錄幻覺有害,AI自作主張補充對話細節二、被用於700萬次就診記錄,原始音頻文件被刪除三、Whisper出現幻覺頻率高於同類工具,OpenAI內部已反饋更新結語:幻覺問題是AI應用的重大隱患

智東西10月28日報道,OpenAI的AI轉錄工具Whisper被曝出,在文本轉錄和翻譯時會出現整句幻覺!

外媒美聯社採訪了十幾位工程師、開發人員和學術研究人員發現,OpenAI的AI轉錄工具Whisper很容易編造大段文本甚至整句話,這些幻覺中包含種族評論、暴力言論,甚至會編造醫生和患者的對話。

Whisper是2020年9月OpenAI推出的一款開源AI語音轉文字工具,其在英語語音識別方面的穩健性和準確性已達到人類水平,並且支持其他98種語言的自動語音辨識。截至目前,Whisper的使用範圍已經涵蓋了全球數千家公司,並且僅上個月開源AI平臺HuggingFace中Whisper的最新版本下載量就超過420萬次,基於Whisper構建的工具已經有超過30000名臨牀醫生和40個醫療系統使用。

密歇根大學的一名研究人員在進行一項關於公開會議的研究時透露,在他開始嘗試改進模型之前,他發現他檢查的每10個音頻轉錄中就有8個出現幻覺;一位機器學習工程師稱,他最初分析了100多個小時的Whisper轉錄樣本,發現其中約有一半內容存在幻覺。還有開發人員透露,他用Whisper創建的26000份轉錄樣本中幾乎每一份都發現了幻覺。

幻覺是指大模型在生成文本、回答問題或進行其他輸出時,會產生一些看似合理但實際上是錯誤的信息。這些信息沒有事實依據,就好像模型產生了 “幻覺”。

即使是錄製良好的短音頻樣本,轉錄幻覺的問題仍然存在。計算機科學家最近進行的一項研究發現,在他們檢查的13000多個清晰音頻片段中,有187個片段中出現幻覺。

例如下圖中,音頻文件的原話是“她接了電話後,她開始祈禱”,轉錄的內容爲“我感覺我要摔倒了,我感覺我要摔倒了,我感覺我要摔倒了”。

原音頻爲“嗯,她的父親再婚後不久就去世了”,但AI將其轉錄爲“沒關係。只是太敏感了,不方便透露。她確實在65歲時去世了”。

這種趨勢或許將導致數百萬條錄音中出現數萬處錯誤的轉錄,這對於事關人們健康安全的醫療行業影響更爲深遠。

Whisper目已集成到OpenAI旗艦聊天機器人ChatGPT的某些版本中,同時也是甲骨文和微軟雲計算平臺的內置產品。HuggingFace的機器學習工程師Sanchit Gandhi說,Whisper是最受歡迎的開源語音識別模型,並被嵌入到從呼叫中心到語音助手等各種設備中。

因此,使用範圍最廣的Whisper,被發現出現大量幻覺也更令使用者擔憂。

美國康奈爾大學的艾莉森·科內克教授和美國弗吉尼亞大學的莫娜·斯隆教授研究了他們從卡內基梅隆大學的研究資料庫TalkBank獲得的經轉錄的數千個簡短片段。他們確定,Whisper產生的幻覺中有近40%的是有害或令人擔憂的,因爲說話者可能會被誤解或歪曲。

在他們發現的一個例子中,一位發言者說道:“他,那個男孩,我不太確定,要拿走雨傘。”

但轉錄軟件補充道:“他拿了十字架的一大塊和一小塊碎片……我敢肯定他沒有帶恐怖刀,所以他殺了很多人。”

另一段錄音中的一位發言人描述了“另外兩名女孩和一名女士”。Whisper編造了關於種族的額外評論,補充說“另外兩名女孩和一名女士,嗯,是黑人。”

在第三次轉錄中,Whisper發明了一種不存在的藥物,稱爲“高活性抗生素”。

研究人員並不確定Whisper和類似工具爲何會產生幻覺,但軟件開發人員稱,幻覺往往發生在說話聲音暫停,出現背景聲音或有音樂播放時。

OpenAI曾在其在線披露中建議不要在“決策環境中”使用Whisper,因爲“決策環境的準確性缺陷可能導致結果出現明顯缺陷”。但這一警告並沒有阻止醫院或醫療中心使用Whisper等語音轉文本模型來轉錄醫生就診時所說的內容,因爲這些工具可以幫助醫務人員花更少的時間做筆記或撰寫報告。

目前,有超過30000名臨牀醫生和40個醫療系統已開始使用由美國數字健康創企Nabla開發的基於Whisper的轉錄工具。Nabla首席技術官馬丁·雷森(Martin Raison)稱,這一工具根據醫學語言進行了微調,可以轉錄和總結醫生與患者的互動,該工具已用於記錄約700萬次醫療就診記錄。不過,這家創企的負責人也透露,他們知道Whisper可能會產生幻覺並正在解決這個問題。

▲Nabla官網主頁的AI工具介紹

雷森稱,他們無法將Nabla生成的記錄與原始錄音進行比較,因爲Nabla的工具會出於“數據安全原因”刪除原始音頻。OpenAI前工程師威廉·桑德斯(William Saunders)認爲,如果沒有仔細檢查記錄,或者臨牀醫生無法訪問錄音來驗證其是否正確,刪除原始音頻可能會令人擔憂。因爲“如果你拋棄了基本事實,你就無法發現錯誤”。

Nabla的相關負責人認爲,沒有一種模型是完美的,目前他們的模型要求醫療服務提供者快速編輯和批准轉錄的記錄,但未來他們或許會改變這種操作模式。

去年之前一直擔任美國科技政策辦公室主任的阿隆德拉·尼爾森(Alondra Nelson)說,這樣的錯誤可能會產生“非常嚴重的後果”,尤其是在醫院環境中。

Whisper還用於爲聾人和聽力障礙者製作隱藏式字幕——這一羣體特別容易出現轉錄錯誤。負責美國加勞德特大學技術訪問項目的聾人患者克里斯蒂安·沃格勒 (Christian Vogler)說:“這是因爲聾人和聽力障礙者無法識別隱藏在所有其他文本中的捏造。”

更令人擔憂的是,由於患者與醫生的會面是保密的,因此其他人很難知道AI生成的記錄對醫生和患者有何影響。

美國加州議員麗貝卡·鮑爾-卡漢(Rebecca Bauer-Kahan)稱,今年早些時候,她帶着一個孩子去看醫生並拒絕簽署該醫療網絡提供的一份表格,該表格要求她允許將諮詢音頻分享給包括微軟Azure在內的供應商,她不希望如此私密的醫療對話被分享給科技公司。“該法案(美國加州和聯邦隱私法)明確規定營利性公司有權獲得這些權利。”但卡漢說,“我當時的反應是絕對不行。”

這種幻覺的普遍存在促使專家、倡導者和OpenAI前員工呼籲聯邦政府考慮制定AI法規。他們認爲,OpenAI至少需要優先解決這一缺陷。

“如果(OpenAI)公司願意優先考慮這個問題,這個問題似乎是可以解決的。”桑德斯認爲,“如果你把它推出去,人們過於自信它能做什麼,並將其整合到所有其他系統中,那就有問題了。”

據OpenAI發言人透露,公司正在不斷研究如何減少幻覺,並對研究人員的發現表示讚賞,並補充說OpenAI在模型更新中納入了反饋。

雖然大多數開發人員認爲轉錄工具會出現拼寫錯誤或犯其他錯誤,但工程師和研究人員表示,他們從未見過其他AI轉錄工具像Whisper一樣產生如此多的幻覺。

一些專家在接受媒體採訪時提到,此類捏造是有問題的,因爲Whisper被全球衆多行業用來翻譯和轉錄採訪、在流行的消費技術中生成文本以及爲視頻創建字幕。更令人擔憂的是,儘管OpenAI警告不應在“高風險領域”使用該工具,但醫療中心仍急於使用基於Whisper的工具來記錄患者與醫生的諮詢。

即便AI公司一直在努力解決幻覺問題,但目前看來收效甚微。今年早些時候,谷歌的AI助手因建議使用無毒膠水來防止奶酪從披薩上掉下來而遭到批評;蘋果CEO蒂姆·庫克也在接受採訪時提到,幻覺可能會成爲其AI未來產品的一個重要問題,並且他對這些工具是否會產生幻覺的信心程度並不是100%。

因此,如何平衡好產品開發、推向市場,與這一產品被應用到各行各業所產生的影響,對於AI產業的參與者而言都至關重要。