继此前
10分钟被AI换脸骗走430万元”事件
点击回顾⬆️
引发关注之后
又一起AI换脸诈骗事件被报道
整个过程仅9秒钟
受害者就被骗走了245万元。
5月25日,据媒体消息,今年4月,安徽安庆经济开区发生一起“冒充熟人”诈骗案,诈骗分子使用了一段9秒钟的智能AI换脸视频佯装“熟人”,问何先生借钱。基于对“熟人”的信任,何先生没有犹豫,立刻让家人将245万元打到对方指定的账号上,直到事后拨打对方电话才得知被骗。
AI技术存在滥用风险
务必保持防范意识
为规范人工智能发展,去年12月,《互联网信息服务深度合成管理规定》正式发布,明确了合成数据和技术管理规范。其中提到:深度合成服务提供者对使用其服务生成或编辑的信息内容,应当添加不影响使用的标识。提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认。
对于个人而言
面对花样翻新的AI诈骗
必须保持防范意识
保护信息,提高警惕
不要轻易透露自己的身份证、银行卡、验证码等信息,不要轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等。
多重验证,确认身份
如果有人自称“熟人”“领导”等通过社交软件、短信以各种理由诱导汇款,或涉及网络转账交易行为时,务必通过电话、见面等多途径核验对方身份,不要未经核实随意转账汇款。
再次强烈提醒大家
如不慎被骗或遇可疑情形
请注意保存证据
并立即拨打96110报警!
总监制/郭文君 监 制/于雁红 值班主任/林琳
制片人/闫 凯 图文 编辑 /王雅琼 郝若碧(实习)
来源:央视新闻 大皖新闻
版权归原作者所有,未经允许
如果觉得《又一起!只有9秒钟 被骗245万元!再次强烈提醒!》对你有帮助,请点赞、收藏,并留下你的观点哦!