OpenAI對AI語音引擎非常謹慎:可能永遠不會被廣泛使用
鞭牛士報道,6月10日消息,據外電BI報道,幾個月內,OpenAI 第二次解釋其文本轉音頻工具,提醒大家該工具尚未廣泛使用,也可能永遠不會被廣泛使用。
該公司週五在其網站上發表的聲明中表示:無論我們最終是否會廣泛部署這項技術,讓世界各地的人們瞭解其發展方向都很重要。這就是爲什麼我們要解釋該模型的工作原理、我們如何將其用於研究和教育,以及我們如何圍繞它實施安全措施。
去年年底,OpenAI 與公司外部的一小羣用戶分享了其語音引擎,該引擎依靠文本輸入和 15 秒的人類聲音片段來生成聽起來與原始說話者非常相似的自然語音。
該工具可以用多種語言創建聽起來令人信服的人類聲音。
當時,該公司表示,它選擇預覽該技術但不會廣泛發佈,以增強社會韌性,以抵禦越來越令人信服的生成模型的威脅。
作爲這些努力的一部分,OpenAI 表示正在積極逐步淘汰基於語音的銀行賬戶身份驗證,探索保護個人聲音在人工智能中使用的政策,教育公衆瞭解人工智能的風險,並加快跟蹤視聽內容的開發,以便用戶知道他們正在與真實內容還是合成內容進行交互。
但儘管做出了這些努力,人們對於這項技術的恐懼依然存在。
總統喬·拜登的人工智能主管布魯斯·裡德曾表示,語音克隆是讓他夜不能寐的一件事。
美國聯邦貿易委員會在 3 月份表示,詐騙者正在利用人工智能來提升他們的工作效率,他們使用的語音克隆工具使得區分人工智能生成的聲音和人類的聲音變得更加困難。
OpenAI 在週五更新的聲明中試圖緩解這些擔憂。
該公司表示:我們將繼續與美國及政府、媒體、娛樂、教育、民間社會等領域的國際合作夥伴合作,以確保我們在建設過程中採納他們的反饋。
它還指出,一旦 Voice Engine 配備了其最新型號 GPT4o,它也將帶來新的威脅。在內部,該公司表示正在積極對 GPT-4o 進行紅隊測試,以識別和解決社會心理學、偏見和公平以及錯誤信息等各個領域的已知和不可預見的風險。
當然,更大的問題是,當這項技術被廣泛發佈時會發生什麼。看來 OpenAI 也做好了準備。
尚未立即迴應 Business Insider 的置評請求。