随着人工智能的迅猛发展,诈骗团伙的诈骗手段也越来越科技化,竟然用上了AI换脸技术进行金融诈骗。
近日,包头警方发布一起利用AI实施电信诈骗的典型案例。4月20日中午,郭先生的好友突然通过微信视频联系他,称自己的朋友在外地竞标,需要430万元保证金。基于对好友的信任,加上已经视频聊天核实了身份,郭先生分两笔把430万元转到了好友朋友的银行卡,其间也没有核实钱款是否到账。此后,郭先生拨打好友电话,才知道被骗。骗子通过智能AI换脸和拟声技术,佯装好友对他实施了诈骗。
(资料图片仅供参考)
“当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备。”郭先生说。
“诈骗分子总是更偏好在信息差中寻求最大的牟利空间:用更快、更新、更容易伪造的传播方式,攻破那些在新技术面前还来不及做好准备的人。”金融业内人士表示,当金融诈骗用上AI换脸,要用“法”打败“魔法”。
这个“法”,是方法、办法的“法”。防骗最有效的一招就是不信,无论对方怎么换、怎么变、怎么翻着花样骗,就是“不听不信不转账”。“魔高一尺,道高一丈”,面对骗子的新招数,我们的反诈术、防骗方法更要优化,总结出富有成效的好方法。
这个“法”,也是法规、法律的“法”。此前,一款主打AI换脸的App很火,但很快,在监管部门约谈后这款App下架,原因是如此换脸侵犯了公民的肖像权。2022年12月,《互联网信息服务深度合成管理规定》发布,对人脸生成、替换、操控,合成人声、仿声等都有明确约束。显然,随着制度设计更精准,相关立法更健全,AI换脸空间将越来越逼仄。
针对花样翻新的金融诈骗,警方也给出了一些防范方法。
公众要提高防范意识,不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等。
网络转账前,要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助。如不慎被骗或遇可疑情形,请注意保护证据,并立即拨打96110报警。
如果有人自称“熟人”“领导”,通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息。
即便对方运用AI技术行骗,也可以通过提问的方式进一步确认身份。建议最好向对方的银行账户转账,避免通过微信等社交软件转账。一方面有利于核实对方身份,另一方面也有助于跟进转账信息。在无法确认对方身份时,可以将到账时间设定为“2小时到账”或者“24小时到账”,以预留处理时间。尽量通过电话询问具体信息,确认对方是否为本人。
高科技手段的金融诈骗方式迷惑了很多人,尤其是家中有老人的,子女一定要做好宣传防范工作。提醒老年人在接到视频、语音、电话、短信时,要放下电话,再次拨打家人电话确认,不要贸然转账。
应明确的是,针对类似的金融诈骗,公安机关、网络平台均已建立相对完整的防控拦截机制,这些机制仍将继续发挥着保护层的作用。因此,在包头的案例中,在受骗者及时报警后,福州、包头两地警银迅速启动止付机制,10分钟便追回了300多万元的资金。
在金融诈骗案例开始增多,且换脸等技术在内容平台大范围普及的情况下,建立科技、政策和教育宣传的立体化屏障开始变得更为紧迫。新技术爆发性的普及速度往往超出人们想象,如何迅速实现社会化监管,成为技术进步对时代提出的重要课题。
转自:河北日报
关键词: