通过AI换脸和拟声技术,10分钟骗430万元;AI虚拟人在聊天中筛选出受害者,人工接力实施诈骗……近期,多起宣称利用AI技术实施诈骗的案件引发关注。
“新华视点”记者近日与公安部门核实确认,“AI诈骗全国爆发”的消息不实,目前此类诈骗发案占比很低。但公安机关已注意到此犯罪新手法,将加大力度会同有关部门开展技术反制和宣传防范。
专家表示,随着AI技术加速迭代,由于使用边界不清晰,需要高度警惕涉诈风险。
(资料图片)
“换脸”式诈骗引发焦虑,是否会被亲友的脸骗到
近日,内蒙古包头警方通报一起利用AI实施诈骗的案件,福州市某公司法人代表郭先生10分钟内被骗430万元。据通报,骗子通过AI换脸和拟声技术,佯装熟人实施诈骗。
那么,“AI诈骗潮”是否真的到来了?
记者调查了解到,AI在技术上确实能做到换脸、拟音,但被用来进行“广撒网”式诈骗需要具备很多条件。
一位被列入公安部专家库的民警告诉记者,这类诈骗如果得手必须做到:收集到被换脸对象的个人身份信息、大量人脸图片、语音素材,通过AI生成以假乱真的音视频;窃取被换脸对象的微信号;充分掌握诈骗对象个人身份信息,熟悉其与被换脸对象的社会关系,综合作案成本很高。
他认为:“相关报道对一些案件的典型细节描述不够准确。AI涉诈案件仍属零星发案状态。”他说,成熟的类型化诈骗犯罪往往具有在全国多地集中爆发的特点,但当前没有成规模的AI诈骗类案件发生。
公安机关研判,近期网上“AI换脸换声诈骗在全国爆发”传言不实,全国此类案件发生不到10起,但该动向值得高度关注。网上一键换脸功能的APP、小程序有技术滥用风险,需要加强技术防范反制等工作。
AI进入快速迭代期,涉诈犯罪风险正在积聚
值得关注的是,当前AI技术不再是实验室的半成品,引发热议的“换脸”“拟音”技术已有较成熟的开源软件,使用门槛低。
记者注意到,网络上不乏AI换脸教程。搜索“换脸”,弹出的高频检索记录显示有“换脸软件”“换脸App免费”“换脸视频怎么做”“换脸算法”等。还有通过视频演示教程,介绍一款换脸软件,手把手教授如何使用。
“老话说‘眼见为实’,但今后眼睛看到的也不一定是真实的。”北京市天元律师事务所合伙人杨虎城表示,未来涉及AI合成技术的诈骗、敲诈勒索等违法犯罪和肖像、名誉等民事侵权问题可能逐步显现。
“从现有案例看,这些技术已被不法分子利用。如假冒明星换脸直播、一键脱衣、造谣、制作色情视频等。虽然AI诈骗案件未成气候,但这一趋势值得关注,必须提早防范。”一位反诈民警说。
工信部相关负责人表示,随着AI技术的不断发展,通过少量图片、音频信息合成特定视频,利用人工智能模型批量设计诈骗脚本等成为可能,客观上降低了电信网络诈骗的实施难度,AI类新型犯罪爆发可能性进一步提升。
尽快完善相关法规制度,为AI技术发展立规划线
业内人士建议,要加强AI反制技术研究,“以AI制AI”。一些科技公司正加强对图像、声音伪造技术的反制研究。
其次,加强源头治理和行业引导,及时更新、完善相关法律、标准、规则,为AI技术发展保驾护航。
中国互联网协会监管支撑部主任郝智超建议,进一步加强对个人隐私数据泄露问题的关注,明确信息监管红线,对AI技术的研发、传播、使用做到有规可循。
此外,还要有针对性地加强反诈宣传。香港科技大学(广州)协理副校长、人工智能学域主任熊辉表示,未来AI可根据大数据创造出无比接近真实的“真实”。“要改变大众观念,提升对网络信息的辨识力。”他说。
工信部表示,下一步,将强化监管执法,积极会同网信、公安等部门,督促企业健全完善深度合成信息管理及技术保障措施;鼓励技术攻关,凝聚产学研用各方力量,提升深度合成风险技术防范能力;加强行业自律,建立健全深度合成技术相关行业标准、行业准则和自律管理制度,督促指导深度合成服务提供者和技术支持者制定完善业务规范、依法开展业务和接受社会监督。(新华社“新华视点”记者)
下一篇:最后一页
X 关闭
Copyright © 2015-2022 华中家居网版权所有 备案号:京ICP备12018864号-26 联系邮箱:2 913 236 @qq.com