最近,“AI詐騙正在全國爆發”話題熱度居高不下。事情起因在于包頭警方近日發布一起利用AI實施詐騙的典型案例,受騙人10分鐘內被騙430萬元。
AI詐騙之所以如此受社會關注、甚至引發恐慌,主要原因在于AI詐騙是模仿真人聲音和面部實施詐騙,這種針對個人信息定制的“專屬劇本”詐騙成功率非常高。上述案件中,騙子盜用受騙人好友微信賬號,通過AI換臉和擬聲技術佯裝好友,通過視頻聊天成功對受騙人實施詐騙。多地警方提醒,AI詐騙的成功率接近100%。親友間網絡上借錢更要防范此類詐騙,避免個人信息被別有用心者盜用。
面對此類詐騙案,網絡上甚至有網友自嘲,“還沒享受到AI的便利,就先遭到了AI的重錘”。眾所周知,利用新技術詐騙是電信詐騙的典型特點。從過往來看,無論是“盜版技術”BT種子下載還是“比特幣技術”區塊鏈,都曾是電信詐騙利用的工具。筆者在此呼吁,對于這種現象監管部門需要高度重視,電信詐騙與新技術密切勾連,在實踐中容易造成上述污名化現象。其危害既影響科研人員積極性,又不利于營造友好的創新環境。
事實上,技術本身是中性的,“無罪的”,關鍵誰來運用。對于AI這樣的新一代信息技術,我們不能因噎廢食。當前,ChatGPT引領AI變革,讓人們再次看到AI技術在解放生產力、提高生產效率上的巨大潛力。
同時,技術被濫用的風險不容低估。筆者建議,在AI詐騙剛剛冒頭之際,監管部門不僅要嚴打AI詐騙,還要利用大數據技術查清到底是哪些人在為AI詐騙提供技術?背后是否形成了灰色產業鏈?目的就是在AI技術發展中堅決規范并堵住危害社會的源頭。
追根溯源,AI詐騙的源頭在于個人信息泄露,在于數據的治理。個人信息不泄露,騙子也就無法拿到個人信息,無從得知人際關系,更沒法模仿面貌腔調。然而,在當前幾乎所有的App都想接入個人電話、照片、短信等權限的環境下,用戶“信息裸奔”現象時有發生。
因此,對于電信詐騙,見招拆招誠然重要,更重要的是防范。近年來,個人信息保護法、個人信息安全規范、數據安全法等法律法規陸續推出,加強了對公眾的生物特征等各類隱私數據保護力度。與此同時,生成式人工智能服務管理辦法出臺在即,重點強調了生成式人工智能產品訓練數據及生成內容的真實性。
筆者認為,監管部門在貫徹落實好相關政策的同時,也要注重健全AI等新技術倫理規范,加強安全監管舉措,引導和規范技術服務商行為。網絡社交等平臺企業要加強用戶賬號管理,防止被他人盜用、竊取。個人也要提高防范意識,避免過多暴露自身信息。
(責任編輯:臧夢雅)