新騙局來了,詐騙成功率接近100%,請大家重視起來,轉告身邊人

前言

隨着科技的進步,社會上的詐騙手法層出不窮,諸如殺豬盤、兼職刷單、求職招聘詐騙等,但這些詐騙手段往往需要較長時間,對詐騙犯來說“效率很低”。

但如今,一種新的詐騙手段瘋狂席捲而來,能夠在10分鐘騙取高達430萬元的鉅額資金,在我們沒有反應過來的時候,就已經被騙了,這樣的詐騙手段的成功率接近100%。

那麼,這種詐騙方式究竟是什麼,我們又該如何防範?

換臉詐騙!

在當今這個科技日新月異的時代,AI 技術無疑是一把雙刃劍,一方面,它爲我們的生活帶來了諸多便利,像智能語音助手幫我們輕鬆處理各種事務、AI 智能安防讓生活環境更加安全等等。

但另一方面,一些不法分子卻動起了歪腦筋,利用 AI 技術來實施犯罪,如今,AI換臉技術已經不再是隻存在於科幻電影中的情節了,它正逐漸成爲不法分子實施網絡詐騙的新手段,悄然侵襲着我們的網絡安全防線。

不法分子們會將視頻中的人臉替換成他人的模樣,冒充親人、朋友、同事或者領導等來借錢,他們只需要獲取他人的一張照片或者一段語音,就能通過相關軟件合成極爲逼真的視頻和聲音,然後編造遇到困難急需資金等理由去實施詐騙。

在寧夏固原市,有一個實例,當地居民馬某某在閒暇時瀏覽網絡平臺上的視頻,突然收到了來自“表哥”的好友添加請求,在成功添加爲好友後,“表哥”立即向他發起了視頻通話。

他聲稱自己正在非洲工作,由於網絡狀況不穩定,不宜轉賬,但當前需要與公司簽訂一份合同,所以他希望馬某某能夠先替他向公司墊付合同所需的資金,等之後網絡狀況改善後再將錢款歸還。

而馬某也出於對親戚的親情和信任,根本容不得的拒絕,於是馬某先後三次將總計15000元轉到了對方指定的銀行賬戶,然而,直到事後他通過微信向真正的親戚覈實情況時,才猛然意識到自己被騙了,原來,與他進行視頻連線的“表哥”根本是個“冒牌貨”,是騙子利用AI換臉。

被“表哥”騙了1.5萬!AI換臉詐騙案細節曝光!警方提醒 2024-09-18 15:43 大慶晚報

在2023年,福州的郭先生不幸遭遇了一樁令人驚愕的詐騙事件,當時,他接到了一位自稱“好友”的微信視頻通話請求,對方聲稱自己正在外地參與一個投標項目,緊急需要430萬元作爲保證金。

但是,這筆資金需要通過公司對公司的賬戶進行轉賬,因此,對方希望能夠借用郭先生所在公司的賬戶來“臨時中轉”一下這筆款項。

而郭先生看到對方是熟悉的面容,聽到了熟悉的聲音,郭先生便沒有過多懷疑,直接將銀行卡號給了對方,並聲稱已經把錢打到了郭先生的賬戶上,甚至貼心地把銀行轉賬底單的截圖通過微信發給了郭先生。

郭先生也十分相信自己的“朋友”,也沒有看款項到賬,直接將430 萬轉了過去,事後郭先生給自己的朋友發消息稱事情已經辦妥,但對方卻對此一無所知,這時,郭先生才猛然驚醒,意識到自己被騙了,原來,與他進行視頻通話的那個“好友”,竟是騙子利用AI技術合成的虛擬形象。

幸運的是,警方迅速採取了行動,福州與包頭兩地的警方與銀行緊密合作,成功阻止了336.84萬元的支付並進行了攔截,然而,仍有93.16萬元的資金被不法分子轉移,目前警方正全力以赴地進行追繳工作。

從這些案例不難看出,AI換臉騙局的迷惑性極強,稍不留意就可能讓我們掉入陷阱,遭受財產損失,大家一定要提高警惕呀。

光明網2023-05-24《AI詐騙在全國爆發!詐騙成功率接近100%》

公衆人物詐騙事件

如今,一些不法分子爲了牟取私利,打起了公衆人物的主意,他們利用 AI 技術,收集公衆人物的照片,通過軟件合成製作出看似真實的視頻內容。

比如,有的騙子會製作出某明星推薦某產品的視頻,視頻裡明星的形象、聲音都和本人極爲相似,聲稱這款產品有着神奇的功效,誘導粉絲們去購買消費。

有一位博主爲了增加粉絲數量和獲取更高的網絡流量,從網上下載了某位著名女演員的照片,並將其合成爲視頻,並對該明星的緋聞和成名歷程進行了不實的敘述,隨後將這段視頻發佈在自己的短視頻賬號上,來吸取流量。

得知此事後,這名女星認爲自己的姓名權和肖像權遭到了侵犯,於是決定採取法律手段維護自身權益,最終將這位博主告上了法庭,經過法院的審理,判決博主公開發布賠禮道歉的聲明,並向女星賠償經濟損失共計2萬元。

博主爲漲粉合成女星視頻被罰2萬,法院:具有盈利的目的 2024-03-26 10:07·閻良區人民檢察院

竟然有詐騙團伙冒充演員“靳東”,靠着假冒的身份博取中老年女性粉絲的信任,然後編造投資、公益、甚至是戀愛的各種藉口,向她們索要錢款,竟然成功騙取了多位受害者,共計30多萬元人民幣!

這些現象都表明,利用 AI 合成公衆人物視頻誤導粉絲消費的詐騙手段不僅存在,還侵犯了公衆人物的肖像權等權益,涉及範圍也越來越廣,大家一定要提高警惕,避免掉入這樣的陷阱中。

語音合成騙局

隨着科技的日新月異,語音合成技術不幸落入不法之徒的手中,成爲了他們詐騙的新“利器”,這些騙子利用語音合成技術,能夠惟妙惟肖地模仿任何人的聲音,並且通過精細調整語調和情感,達到極高的逼真度,幾乎能夠以假亂真的程度。

在日常生活中,我們常因對熟悉聲音抱持信任而降低防備,騙子正是利用這心理漏洞行騙,淮安的一位高一學生小麗就不幸中招,某日,小麗在QQ上收到初中好友小紅的信息,聲稱手頭拮据,請求小麗幫忙充值800Q幣。

在她們的聊天中,當小麗聽到那段語音信息,立刻辨認出那是小紅的聲音,鑑於兩人曾是親密無間的初中同學,小麗深信自己不會聽錯,於是按照小紅的請求,通過第三方平臺向小紅的QQ賬號充值了Q幣。

然而,之後小紅卻告知小麗,她的QQ號被盜用了,小麗隨即嘗試幫助小紅找回賬號,但不幸的是,在這個過程中,小麗的QQ號也遭到了盜取,更糟糕的是,許多同學都收到了來自“小麗”的請求,讓他們幫忙充值Q幣。

事實上,這是不法分子在盜取小紅的語音信息後,運用語音合成技術進行的詐騙活動,他們不僅假扮小紅欺騙了小麗,還利用小麗的語音去詐騙其他同學。

再看江蘇句容的楊女士,她也遭遇了類似的騙局,在收到多條自稱爲“女兒”發來的要求繳納報名費的語音信息後,楊女士沒有過多懷疑,便直接向騙子提供的賬戶轉賬了3.5萬元,直到後來,她才意識到自己上當受騙了。

如今,AI 合成的視頻和聲音的逼真程度着實令人咋舌,迷惑性極大,普通人很難分辨出真假,對於老年人來說,就更是難上加難了。

曾經有記者做過相關測試,邀請了多位老人蔘與,在播放 AI 合成的聲音以及展示 AI 合成的視頻時,發現多數老人根本無法區分這到底是真人還是通過 AI 合成出來的,哪怕是親人的聲音、熟悉的面容出現在眼前耳邊,老人們也很容易誤認,這就給了詐騙分子可乘之機。

有些老人會接到自稱是戰友、外孫或其他熟人的電話,聽到那熟悉的聲音,即便對方編造的藉口存在諸多不合理之處,老人們往往還是基於對聲音主人的深厚信任,輕易就相信了對方,進而按照要求進行轉賬匯款,最後才發現上當受騙,可那時錢款往往已經難以追回了。

像這樣的案例還有很多,騙子就是利用人們對熟悉聲音的信任,讓大家在毫無防備的情況下掉入陷阱,所以面對涉及金錢的請求,哪怕聽到的是熟悉的聲音,也一定要多留個心眼,仔細覈實對方身份。

提高防範意識

在這個AI技術日益發達的時代,面對涉及金錢轉賬的請求,大家一定要時刻保持警覺,切不可盲目輕信,要知道,騙子們的手段越發隱蔽和巧妙,哪怕看似熟悉的場景、親切的聲音,都可能是他們精心設計的陷阱。

當接到諸如緊急借款時,一定要通過其他可靠的方式去核實對方的真實身份,比如,不要僅僅依賴於即時通訊軟件裡的對話,可以直接打電話過去,聽聽對方的語氣、反應,詢問一些只有彼此知曉的事情,或者換個社交平臺再次聯繫確認,多一道驗證的程序,就能多一份安全保障。

儘管如今的社交媒體高度發達,爲我們提供了分享生活點滴和與人交流的便捷平臺,但我們也必須時刻保持警惕,妥善保護個人信息,特別是那些涉及資金、金融、銀行賬戶等敏感內容,更應謹慎處理,避免在網絡上過度暴露。

要知道,騙子們會利用各種技術手段收集咱們在網上發佈的信息,一旦個人信息被他們掌握,就很容易被精準定位,進而成爲他們實施詐騙的目標,比如說,經常在社交平臺炫耀自己的投資理財收益、詳細透露自己的資金賬戶情況等行爲,都是很危險的。

所以,咱們平時在社交媒體上要謹慎發佈內容,對於一些要求填寫大量個人敏感信息的陌生平臺、應用等,也要保持警惕,避免隨意註冊、授權,防止個人信息被不法分子竊取利用,爲自己的財產安全築牢防線。