近日,包頭警方發布一起利用人工智能實施電信詐騙的典型案例,福州市某科技公司法人代表郭先生10分鐘內被騙430萬元。復盤整個被騙過程細思恐極。據披露,騙子通過智能AI換臉和擬聲技術,佯裝好友對他實施了詐騙。騙子并沒有使用仿真的好友微信添加郭先生,而是直接用好友微信發起視頻聊天求助。(5月23日《北京商報》)
AI詐騙,眼見未必為實。換聲、換臉、攔截微信號,電信詐騙所使用的多重技術正在讓騙局越來越難以識破。譬如,騙子會通過騷擾電話來提取受害人聲音,再用合成后的聲音實施詐騙。除了點對點獲取數據,騙子也會用AI技術從網絡信息中篩選出受害人,并運用人體圖像合成技術生成假臉,再對其施騙。另外,騙子還會在盜取微信號后,向其好友發送此前的聊天語音,借機取得信任并進一步展開騙術。
由此可見,盡管各種騙局防不勝防,但只要切斷對AI詐騙的“數據喂養”,有效防范就不會是一句空話。與人類學習依靠大腦不同,人工智能的學習離不開大數據。通過統計分析瀏覽記錄、點擊頻次,系統便可把人的特征、行為、選擇信息化,為人的生活提供便利。然而,這也為隱私保護埋下了巨大的風險,AI不免成為數據喂養的怪獸。
歸根結底,AI詐騙利用了隱私保護的漏洞。大數據時代,隨著隱私范圍的擴大,隱私權利歸屬日益復雜,隱私保護難度也越來越高。這對隱私保護的關鍵技術、法律法規和公眾的權利意識都構成了挑戰。為了應對挑戰,各方應當加強合作,織密個人隱私保護網。4月11日,國家互聯網信息辦公室發布《生成式人工智能服務管理辦法(征求意見稿)》。其中明確提出,利用生成式人工智能產品提供聊天和文本、圖像、聲音生成等服務的組織和個人,不僅要承擔該產品生成內容生產者的責任,還要承擔個人信息處理者的法定責任,履行個人信息保護義務。相信通過強化新型監管、協同治理,隱私保護將緊跟技術發展的腳步,讓技術更好造福生活。
此外,面對各種風險,每個人都需要提升隱私保護意識。譬如,不輕易參與網上流行的“AI換臉”“AI換聲”活動,謹慎使用指紋支付、刷掌支付等新興支付方式,不隨意提供人臉、指紋等個人生物信息給他人,不過度公開或分享動圖、視頻等信息。
(責任編輯:臧夢雅)