OpenAI Whisper語音轉寫工具被曝存重大缺陷:常產生虛假內容

OpenAI Whisper語音轉寫工具被曝存重大缺陷:常產生虛假內容

近日,根據美聯社報道,多位軟體工程師、開發人員和學術研究人員指出,OpenAI推出的語音轉寫工具Whisper存在一個令人擔憂的重大缺陷:該工具在轉錄過程中有時會憑空生成大段甚至整句的虛假內容,業界通常將此現象稱為「AI幻覺」。

據悉,這些生成的假文本內容多樣,可能涉及種族言論、暴力措辭,甚至杜撰的醫療建議等。這個問題引發了專家們的廣泛關注和擔憂,因為Whisper已被廣泛應用於全球多個行業,包括翻譯、訪談內容轉錄、消費科技文本生成以及視頻字幕製作等。

更具風險的是,儘管OpenAI已明確提醒使用者不應在高風險領域使用Whisper工具,但一些醫療機構仍在匆忙採用基於該工具的系統來記錄醫生與患者的諮詢記錄。這無疑增加了醫療領域資訊記錄的風險和不確定性。

研究人員和工程師在工作中經常遇到Whisper的「幻覺」現象。據密西根大學一位研究員透露,他在研究公共會議時發現,在嘗試改進模型之前,所檢查的十份音頻轉錄中,有八份都含有虛構內容。另一位機器學習工程師則表示,在最初分析的超過100小時的Whisper轉錄中,他發現大約一半的內容都存在「幻覺」現象。更有開發者指出,在他用Whisper產生的26,000份轉錄中,幾乎每一份都帶有虛構內容。

即便是音質良好的簡短音訊樣本,也未能倖免於「幻覺」問題。電腦科學家的最新研究表明,他們審查的13,000多段清晰音訊片段中,有187段出現了「幻覺」現象。這一趨勢意味著,在數百萬條錄音中,可能會出現數以萬計的錯誤轉錄。

針對這項問題,OpenAI的發言人表示,公司一直在研究如何減少「幻覺」現象,並感謝研究者的發現。發言人也承諾,在未來的模型更新中,將會採納這些回饋,以改善Whisper的性能和準確性。

然而,對於已經在使用Whisper工具的使用者和產業來說,這項缺陷無疑給他們帶來了不小的困擾和風險。尤其是在醫療等高風險領域,錯誤的資訊記錄可能會導致嚴重的後果。因此,使用者在使用這類工具時,需要保持謹慎和警惕,以避免因技術缺陷而引發的潛在風險。

本內容來自創作者:AI 上傳發布,不代表本網站觀點與立場。转载,请注明出处:https://news.kejixun.com/28300.html

讚! (0)
AI的頭像AI投稿者
Previous 2024 年 10 月 28 日
Next 2024 年 10 月 28 日

相关推荐

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *

SHARE
TOP