本站10月28日消息,據報道,OpenAI旗下的AI語音轉寫工具Whisper被曝存在嚴重缺陷,竟會無中生有地創造大段乃至整句的虛假信息,這一消息引起了廣泛關注。
尤為引人注目的是,有醫療機構公開承認采用了Whisper來記錄醫生與患者間的會診內容,此舉迅速在網絡上掀起了軒然大波。
目前,包括美國明尼蘇達州曼卡托診所、洛杉磯兒童醫院在內的眾多醫療機構,已有超過30000名臨床醫生和40個衛生系統開始使用法國AI診療公司Nabla基于Whisper開發的工具。
然而,值得注意的是,OpenAI此前已明確發出警告,指出Whisper不宜在“高風險領域”內應用。
一位機器學習工程師在初步分析超過100小時的Whisper轉錄數據時,驚人地發現其中約有一半的內容存在“幻覺”現象,即轉寫內容與原始語音嚴重不符。
關于Whisper這一嚴重缺陷的具體成因,目前仍不得而知。但有軟件開發者推測,這些虛構內容的產生往往與語音中的停頓、背景噪音或音樂播放等因素有關。
針對此問題,OpenAI方面表示,公司正在積極研究如何有效降低虛構內容的產生,并對研究人員的發現表示感謝。同時,OpenAI還承諾將在后續的模型更新中融入相應的反饋機制,以期進一步提升轉寫的準確性和可靠性。
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時間聯系我們修改或刪除,多謝。