首頁 >綜合 > 正文

      世界滾動:10分鐘被騙430萬元 “AI詐騙”應被零容忍

      2023-05-26 07:01:52來源:中國青年報


      (資料圖)

      近期,多家媒體注意到,“AI換臉”新型詐騙頻發,利用人工智能實施電信詐騙的典型案例沖上熱搜,引發全網關注。據“平安包頭”微信公眾號消息,近日,包頭市公安局電信網絡犯罪偵查局發布一起使用智能AI技術進行電信詐騙的案件,福州市某科技公司法人代表郭先生10分鐘內被騙430萬元。

      正常情況下,人們都信奉“眼見為實”,尤其是隨著視頻通訊的普及,對于通過網絡視頻“面對面”的交流,大家總是很容易信任的。但上述詐騙案件告訴我們,這一點也正在被一些騙子“鉆空子”。更重要的是,當前多數人對此都缺乏足夠的警惕意識。

      當務之急,還是要加強有針對性的防騙教育和提醒。類似的“AI換臉”詐騙案例,應該盡快通過多種渠道告知民眾,尤其要提醒一些老年人。與此同時,防騙治理工作也要盡快跟上,目前對“AI換臉”詐騙的防范措施還比較少。針對這類詐騙的新手段和新路徑,是否在技術層面能夠有相應的防范措施,需要相關部門及企業加緊探索,織密防騙網絡。比如,網絡社交通信工具能否增加準確識別“AI換臉”操作的功能,以此對當事人作出提醒?

      還要注意一點,“AI換臉”畢竟是建立在對人臉信息的加工和利用之上,這也應該讓社會對如今人臉識別的濫用風險有更多的科學評估。因為在目前的現實條件下,人臉識別的應用范圍越廣,也就意味著人臉信息的泄露可能越嚴重。如此自然也就很容易降低“AI換臉”詐騙的門檻。對此,相關監管和立法應該要有所跟進,進一步明確人臉識別技術應用的邊界,提高對人臉信息的保護力度。同時,語音、視頻等合成技術的研發和使用,也應該進守住技術倫理底線,以從源頭上減少其“干壞事”的可能性。

      當然,對于“AI換臉”詐騙也沒必要人人自危。說到底,過去一些最基本的防詐原則依然管用。比如,涉及錢款交易,一定要慎之又慎,進行多方驗證。中國互聯網協會就發出提醒:“在AI時代,文字、聲音、圖像和視頻都有可能是深度合成的,在轉賬匯款、資金往來這樣的典型場景,要通過回撥對方手機號等額外通信方式核實確認,不要僅憑單一溝通渠道未經核實就直接轉賬匯款,無論對方是誰!”這點其實相當重要,只要涉及轉賬操作和資金往來,一定要多留個心眼。這應當是每個人都需要擁有的防騙素養。

      責任編輯:

      標簽:

      免責聲明

      頭條新聞

      推薦內容