防堵AI語音詐騙 臺科大學生開發「護聲符App」
臺科大學生開發出「護聲符APP」,可以防堵AI語音詐騙。(臺科大提供/林志成臺北傳真)
「深度僞造」(Deep Fake)技術遭不法分子利用,造成社會隱患。臺灣科技大學資訊管理系學生開發「應用音訊浮水印於對抗式攻擊與深度學習之數位護聲符系統」,提供語音防護與真僞辨識,他們設計的「護聲符App」並在競賽中獲佳績。
近年來「深度僞造」技術迅速發展,有不法分子利用AI語音合成技術進行語音詐財,已擾亂社會秩序。臺科大資訊管理系學生王玟雅、蔡婷玗、陳俞縕及毛世鑫共同開發「應用音訊浮水印於對抗式攻擊與深度學習之數位護聲符系統」,並據此設計「護聲符App」,在第29屆大專院校資訊應用服務創新競賽中也榮獲資安應用組第二名及資訊應用組第三名的佳績。
隊長王玟雅表示,親友曾經接過陌生來電,被誘導進行對話的經歷,再加上看到關於語音詐騙的新聞,讓她萌生設計語音防護系統的想法,希望以科技手段保障聲音權益。「
她說,「護聲符APP」具備語音真僞辨別及數位音訊防護兩大功能,除了可以分辨語音是AI還是真人,還能爲聲音加上特殊的「音訊浮水印」,也就是人類聽不見的音頻或標記,防止聲音被AI軟體進行二次合成利用,音訊浮水印也能作爲保障聲音版權的依據。
在語音真僞辨識方面,團隊蒐集公開的真人語音資料庫與AI合成音訊,利用偵測模型整合與分類,分析真實語音與合成語音的特徵與差異,最終訓練出辨識系統。
在背景音乾淨的情況下,該系統對真人語音的辨識準確率高達 99.99%,對 AI 合成音的辨識準確率則爲 99.94%。王玟雅表示,此次團隊的共同合作開發也在軟硬實力上帶給她比預期中更多的成長與收穫。
指導老師黃政嘉助理教授指出,聲音權益在近年逐漸受到重視。例如,公衆人物的聲音可能被不法分子利用,製作出虛假言論,嚴重影響其聲譽;日本甚至有聲優因聲音遭竊取而影響工作權,但目前聲音版權保障相關法規仍不完善。