(資料圖)
原標題:10分鐘被騙430萬元 “AI詐騙”應被零容忍
近期,多家媒體注意到,“AI換臉”新型詐騙頻發(fā),利用人工智能實施電信詐騙的典型案例沖上熱搜,引發(fā)全網(wǎng)關注。據(jù)“平安包頭”微信公眾號消息,近日,包頭市公安局電信網(wǎng)絡犯罪偵查局發(fā)布一起使用智能AI技術進行電信詐騙的案件,福州市某科技公司法人代表郭先生10分鐘內(nèi)被騙430萬元。
正常情況下,人們都信奉“眼見為實”,尤其是隨著視頻通訊的普及,對于通過網(wǎng)絡視頻“面對面”的交流,大家總是很容易信任的。但上述詐騙案件告訴我們,這一點也正在被一些騙子“鉆空子”。更重要的是,當前多數(shù)人對此都缺乏足夠的警惕意識。
當務之急,還是要加強有針對性的防騙教育和提醒。類似的“AI換臉”詐騙案例,應該盡快通過多種渠道告知民眾,尤其要提醒一些老年人。與此同時,防騙治理工作也要盡快跟上,目前對“AI換臉”詐騙的防范措施還比較少。針對這類詐騙的新手段和新路徑,是否在技術層面能夠有相應的防范措施,需要相關部門及企業(yè)加緊探索,織密防騙網(wǎng)絡。比如,網(wǎng)絡社交通信工具能否增加準確識別“AI換臉”操作的功能,以此對當事人作出提醒?
還要注意一點,“AI換臉”畢竟是建立在對人臉信息的加工和利用之上,這也應該讓社會對如今人臉識別的濫用風險有更多的科學評估。因為在目前的現(xiàn)實條件下,人臉識別的應用范圍越廣,也就意味著人臉信息的泄露可能越嚴重。如此自然也就很容易降低“AI換臉”詐騙的門檻。對此,相關監(jiān)管和立法應該要有所跟進,進一步明確人臉識別技術應用的邊界,提高對人臉信息的保護力度。同時,語音、視頻等合成技術的研發(fā)和使用 ,也應該進守住技術倫理底線,以從源頭上減少其“干壞事”的可能性。
當然,對于“AI換臉”詐騙也沒必要人人自危。說到底,過去一些最基本的防詐原則依然管用。比如,涉及錢款交易,一定要慎之又慎,進行多方驗證。中國互聯(lián)網(wǎng)協(xié)會就發(fā)出提醒:“在AI時代,文字、聲音、圖像和視頻都有可能是深度合成的,在轉賬匯款、資金往來這樣的典型場景,要通過回撥對方手機號等額外通信方式核實確認,不要僅憑單一溝通渠道未經(jīng)核實就直接轉賬匯款,無論對方是誰!”這點其實相當重要,只要涉及轉賬操作和資金往來,一定要多留個心眼。這應當是每個人都需要擁有的防騙素養(yǎng)。(朱昌?。?/p>
關鍵詞:
責任編輯:Rex_26