<p class="ql-block">繼內(nèi)蒙古包頭一家科技公司的老總10分鐘內(nèi)被電信詐騙430萬后,安徽又發(fā)生了一起9秒內(nèi)被電信詐騙245萬的案例,這類詐騙套路如出一轍:<b style="color: rgb(22, 126, 251);">“熟悉的朋友+熟悉的聲音”</b>,無一例外地都與一個(gè)新興科技名詞產(chǎn)生了聯(lián)系:<b style="font-size: 22px;">AI換臉</b><span style="font-size: 18px;">。</span></p> <p class="ql-block">AI換臉,就是通過AI人工智能技術(shù),把別人的臉換成自己的臉。AI換臉詐騙如果得手必須做到:<b style="color: rgb(22, 126, 251);">收集到被換臉對象的個(gè)人身份信息、大量人臉圖片、語音素材,通過AI生成以假亂真的音視頻;竊取被換臉對象的微信號;充分掌握詐騙對象個(gè)人身份信息,熟悉其與被換臉對象的社會關(guān)系。</b>所以,AI換臉詐騙成功的難度系數(shù)雖然很大,但不成功則已,一旦成功,被詐騙的金額絕不是小數(shù)目。</p> <p class="ql-block">那么,AI換臉詐騙,都有哪些常見套路呢?</p> <p class="ql-block"><b style="font-size: 20px;">第一種:聲音合成</b></p><p class="ql-block">騙子通過騷擾電話錄音等來提取某人聲音,獲取素材后進(jìn)行聲音合成,從而可以用偽造的聲音騙過對方。</p> <p class="ql-block"><b style="font-size: 20px;">第二種:AI換臉</b></p><p class="ql-block">人臉效果更易取得對方信任,騙子用AI技術(shù)換臉,可以偽裝成任何人,再通過視頻方式進(jìn)行信息確認(rèn)。</p><p class="ql-block">騙子首先分析公眾發(fā)布在網(wǎng)上的各類信息,根據(jù)所要實(shí)施的騙術(shù),通過AI技術(shù)篩選目標(biāo)人群。在視頻通話中利用AI換臉,騙取信任。</p> <p class="ql-block">對于普通人來說,AI換臉術(shù)詐騙雖然防不勝防,但要想守護(hù)住自己的“錢袋子”,也并非無計(jì)可施。</p> <p class="ql-block">提醒大家,防范AI換臉術(shù)詐騙:</p><p class="ql-block">??不輕易提供人臉、指紋等個(gè)人生物信息給他人,不過度公開或分享動圖、視頻等。</p><p class="ql-block">??對網(wǎng)絡(luò)上任何東西,無論是視頻、語音,還是視頻聊天,都要保持警惕心。</p><p class="ql-block">??陌生鏈接不要點(diǎn),陌生軟件不要下載,陌生好友不要隨便加,防止手機(jī)、電腦中病毒,微信、QQ等被盜號。</p>