AI詐騙爆發:預付AI詐騙
?近日,某地公安機關發布一起使用智能AI技術進行電信詐騙的案件,福州市某科技公司法人代表郭先生被騙子通過Ai換臉和擬聲技術佯裝好友借錢,在10分鐘內被騙430萬元。另據新聞報道,近期全國各地出現眾多通過Ai換臉和Ai擬聲技術進行電信詐騙的案件。

一、Ai技術已足以逼真克隆自然人形象和聲音,令人防不勝防。
Ai技術進步了,首先拿來應用的果然又是騙子集團,他們的學習能力永遠是最強的。Ai換臉和擬聲實際上已經不夠先進,最新的數字人克隆和聲音克隆已經可以逼真復制某個人的形象和聲音,該技術已被許多賣網課的老師們率先運用。以前是無圖無真相,現在有視頻都不一定是真的。
二、那么作為普通人如何預防Ai詐騙呢?
先聽聽Chatgpt怎么說:該案件中使用了AI技術進行電信詐騙,這表明騙子利用技術的手段提高了詐騙的成功率。為了預防此類AI詐騙,以下是一些建議:
1. 警惕微信視頻來電:騙子利用AI技術進行詐騙通常會先通過微信視頻來驗證對方的身份,因此,您應該加倍警惕。
2. 深度判斷交流內容:如果對方無端提出一些事情需要您去做,特別是需要您進行資金轉移或提供個人信息等敏感操作,建議您不要輕易相信,建議您通過其他途徑進行核實。
3. 注意使用防詐騙工具:現在市場上有各種防詐騙工具,包括短信攔截、電話攔截等。有些應用程序可以識別模仿來電的騙子。通過這些工具,您可以有效地保護自己。——最著名的防騙工具就是國家反詐APP了。
4. 增強安全意識:隨著騙子技術不斷提高,很難預測他們的下一個行動,因此,提高自己的安全意識非常重要。遇到可疑的操作,要保持冷靜,不能輕信任何人,不要將個人敏感信息泄露給任何人。
總之,預防AI詐騙需要警惕、增強安全意識和使用防詐騙工具等多方面的努力。
怎么樣,ai教你如何預防ai詐騙,基本上都說到了,但是還不夠具體,我再來補充一些。
三、進階防騙秘籍
1.視頻和聲音效果不會太好,注意觀察識別。想要做到逼真的數字人克隆和聲音擬聲,需要足夠長的原自然人視頻和聲音,騙子一般僅靠一兩張被騙者的照片和一兩句語音進行AI克隆,效果不會太好。仔細看,仔細聽,總能發現破綻,面部肌肉不動啊、背景模糊虛假等等。
2.給好友微信添加備注。一般情況下,騙子還會“克隆”好友微信,就是將自己微信的名稱、頭像更換和被騙者好友一樣,這是騙子通過添加好友微信然后實現的;然后偽裝成你好友給你打視頻、發語音。因此如果你給你的好友都添加備注名稱,那么騙子打來的視頻還是語音都只是好友原來的微信名稱,會被你一眼識破不是本人。
3.對自己發出的照片和聲音采取必要措施。在需要通過網絡發送自己照片時,用繪圖工具添加水印,讓騙子無法換臉或克隆。在發語音時,盡量發短句,而不是非常長的語音,短語音不容易被克隆。
四、AI詐騙引申出數據合規問題
事實上我們普通人的照片只要留意搜索一下,都有很多公開的照片能夠獲得。以律師為例,在律所網站、律協、司法局官網都能查到,可謂是防不勝防。為了預防新的詐騙手段,對保存和展示個人信息的方式、方法,不能再向以往那樣粗線條,讓個人信息可驗證但不可見、不可復制,才能最大限度防止通過AI技術實施詐騙。
附件列表
詞條內容僅供參考,如果您需要解決具體問題
(尤其在法律、醫學等領域),建議您咨詢相關領域專業人士。
如果您認為本詞條還有待完善,請 編輯