南韓校園陷恐慌!深僞技術合成「淫亂A片」 就連女兵也遭意淫
▲隨着AI技術發展,利用「深僞技術」讓照片女性裸體的網站或應用程式跟着盛行。(示意圖/VCG)
記者羅翊宬/編譯
隨着全球人工智慧(AI)技術的發達,基於相關的人體圖像合成「深僞技術」織犯罪手法開始層出不窮,可根據現有圖像合成性犯罪剝削影片。在南韓,甚至在各大社羣平臺出現受害者學校名單,範圍從國中至大學,如今每一位女學生皆擔憂,自己的日常生活照遭到濫用。甚至就連女軍也受害。
根據韓媒《國民日報》,翻遍社羣平臺X(就稱推特)和各大網路論壇,可以發現許多「Telegram深僞技術受害者名單」,名單裡提及的受害者學校遍佈南韓的中學、高中、大學,不過目前尚未掌握名單裡提及的受害者與校名,是否確實爲相片遭到盜用的受害者。
▲社羣平臺出現爆料學生照片遭到深僞技術盜用的各大校園名單。(圖/翻攝自X)
過去許多人經常將日常生活拍攝的相拚上傳到社羣平臺帳戶,藉此記錄生活點滴,不過隨着深僞技術伴隨AI發展,學生們開始擔憂自己的相片是否遭到濫用、合成,因此網路社羣甚至流傳着多種「如何確認相片是否遭盜用」的方法。
實際上,只要在Telegram上用韓文搜尋「友人」、「凌辱」,便會出現數個類似的聊天羣組。在這些羣組當中,會有人提供女性友人的個人資訊,諸如姓名、年齡、職業等,並上傳該名女性友人的生活照,就能以深僞技術製作性剝削影片。
位於京畿道的某校園學生會透過Instagram發佈告示,「現在Telegram上已經發現XX高中學生們的深僞技術合成照片與個人情報了,各位學生必須多加防範。在此奉勸各位,儘量刪除上傳至限時動態、貼文、部落格中,出現本人臉部的照片。」
至於首爾市的某高中也同樣透過學生會,提醒各位務必注意自己的照片是否遭濫用。
▲Telegram上出現以製作深僞技術合成性剝削影片爲目的的對話羣組。(圖/翻攝自X)
報導指出,如今就連女兵都淪爲男性利用深僞技術意淫的對象,相關的Telegram對話羣組有超過900名成員,他們將女兵的照片稱爲「軍需品」,男性加入羣組前必須提供想要意淫的女軍姓名、軍服照片、電話號碼、軍中隸屬單位、軍階、年齡等,或是證明爲現役軍人。
同時,羣組管理人員會要求參加者,必須向某位指定的女兵傳送「凌辱訊息」,且必須將她們的反應拍攝成相片。
對此,南韓政府「放送通信審議委員會」決定正面審視深僞技術犯罪等問題,不過礙於Telegram將伺服器置於國外,以至於當局較難以鎖定相關的犯罪者,因此呼籲受害者一旦發現自己的照片遭到盜用,應該在第一時間向委員會申訴。