深度僞造難辨真假?陸國安部籲慎防間諜「改頭換面」
大陸國安部23日撰文示警,要嚴防深僞技術(Deepfake)包含如「改頭換面」帶來的國安泄密風險。 (示意圖:shutterstock/達志)
大陸國安部微信公衆號23日發文,隨着人工智慧技術發展,「深度僞造」(Deepfake)技術進入生活成爲新興技術工具,但也因爲應用門檻低,高度欺騙性的視覺聽覺僞造內容難以發現,讓潛在安全風險凸顯,示警應保護好個人隱私,特別是核心涉密職位人員,切勿將國家、商業秘密或個人隱私等敏感資訊輸入相關技術軟體中,不用網路傳播涉密內容。
所謂的「深度僞造」技術是深度學習(Deep Learning)與僞造(Fake)的結合,利用人工智慧的深度學習演算法進行自動化的數據處理,進行圖片、音訊及影片智慧類比和僞造,延伸包括影片、音訊與虛假網路身份僞造技術等,出現高度逼真且難以甄別的影音內容。
例如透過將提供的人物面部照片特徵「轉換」到其他人物形象上,進而實現「改頭換面」;又或藉由音訊僞造技術達到語音複製,高度模擬目標人物的聲音。
大陸國安部撰文指出,深度僞造技術可能威脅國家安全和公共安全。深度僞造技術不僅會在一般行業得到應用,也有可能成爲間諜情報機關進行認知戰的新工具。隨着深度僞造技術的發展,某些境外間諜情報機關可能進一步利用該技術反覆運算情報技術手段,展開招募策反、污衊抹黑、混淆視聽等活動。