通过AI换脸和拟声技术,10分钟骗430万元;AI虚拟人在聊天中筛选出受害者,人工接力实施诈骗……近期,多起宣称利用AI技术实施诈骗的案件引发关注。
“新华视点”记者近日与公安部门核实确认,“AI诈骗全国爆发”的消息不实,目前此类诈骗发案占比很低。但公安机关已注意到此犯罪新手法,将加大力度会同有关部门开展技术反制和宣传防范。
“换脸”式诈骗引发焦虑:
你会被亲友的脸骗到吗?
近日,内蒙古包头警方通报一起利用AI实施诈骗的案件,福州市某公司法人代表郭先生10分钟内被骗430万元。据通报,骗子通过AI换脸和拟声技术,佯装熟人实施诈骗。
江苏常州的小刘被骗子冒充其同学发语音、打视频电话,小刘看到“真人”后信以为真,“借”了6000元给骗子。
那么,“AI诈骗潮”是否真的到来了?
记者调查了解到,AI在技术上确实能做到换脸、拟音,但被用来进行“广撒网”式诈骗需要具备很多条件。
一位被列入公安部专家库的民警告诉记者,这类诈骗如果得手必须做到:收集到被换脸对象的个人身份信息、大量人脸图片、语音素材,通过AI生成以假乱真的音视频;窃取被换脸对象的微信号;充分掌握诈骗对象个人身份信息,熟悉其与被换脸对象的社会关系,综合作案成本很高。
他认为:“相关报道对一些案件的典型细节描述不够准确。AI涉诈案件仍属零星发案状态。”他说,成熟的类型化诈骗犯罪往往具有在全国多地集中爆发的特点,但当前没有成规模的AI诈骗类案件发生。
公安机关研判,近期网上“AI换脸换声诈骗在全国爆发”传言不实,全国此类案件发生不到10起,但该动向值得高度关注。
AI进入快速迭代期
涉诈犯罪风险正在积聚
“当前AI技术发展来到螺旋式上升的拐点,未来几年技术迭代将会按月计算。”香港科技大学(广州)协理副校长、人工智能学域主任熊辉说。
值得关注的是,当前AI技术不再是实验室的半成品,引发热议的“换脸”“拟音”技术已有较成熟的开源软件,使用门槛低。
记者注意到,网络上不乏AI换脸教程。在国内某知名App上输入“换脸”,弹出的高频检索记录显示有“换脸软件”“换脸App免费”“换脸视频怎么做”“换脸算法”等。一条名为“史上最强AI换脸软件正式上线了!技术门槛大大降低”的链接,介绍了一款换脸软件,通过视频演示教程,手把手教授如何使用。
“老话说‘眼见为实’,但今后眼睛看到的也不一定是真实的。”北京市天元律师事务所合伙人杨虎城表示,未来涉及AI合成技术的诈骗、敲诈勒索等违法犯罪和肖像、名誉等民事侵权问题可能逐步显现。
尽快完善相关法规制度
为AI技术发展立规划线
中国移动信息安全中心品质管理处副处长周晶告诉记者,近年来,国际国内各界在积极探索深度合成技术的有效治理路径,研判AI技术给社会带来的风险和潜在威胁,正设法将AI技术发展纳入一定规则中,做到安全可控。
工信部表示,下一步,将强化监管执法,积极会同网信、公安等部门,督促企业健全完善深度合成信息管理及技术保障措施;鼓励技术攻关,凝聚产学研用各方力量,提升深度合成风险技术防范能力;加强行业自律,建立健全深度合成技术相关行业标准、行业准则和自律管理制度,督促指导深度合成服务提供者和技术支持者制定完善业务规范、依法开展业务和接受社会监督。(据新华社广州6月8日电)