上传一张静态照片,假乱即可生成动态视频;只需几秒语音 ,真的诈骗就能克隆声音……这不是何防科幻电影,而是假乱发生在身边的真实事件,“AI换脸”正成为侵权违法的真的诈骗重灾区。
近期,何防为规范应用人脸识别技术处理人脸信息活动、假乱保护个人信息权益 ,真的诈骗国家互联网信息办公室 、何防公安部联合公布《人脸识别技术应用安全管理办法》,假乱对应用人脸识别技术处理人脸信息的真的诈骗基本要求和处理规则 、人脸识别技术应用安全规范 、何防监督管理职责等作出了规定。假乱办法将于2025年6月1日起施行。真的诈骗
人脸识别技术应用与人脸信息安全紧密相关。何防人脸识别具有唯一性 、不可更改性、不可匿名性,一旦泄露 ,极易对个人的人身和财产安全造成危害,还可能威胁公共安全。
AI诈骗形式多样
换脸、变声、对口型
贵州省黔东南苗族侗族自治州凯里市公安局反诈中心负责人吴西福介绍,一家科技公司的负责人郭先生有一天接到好友打来的视频电话 ,说自己正在外地投标,需要几百万元保证金,想用郭先生的公司账户走一下账 。不久后,好友说已经把钱转到郭先生的账户并截图证明。郭先生觉得通过视频能看到好友本人 ,便没等收到转账成功的通知就给好友转了钱 。后来 ,郭先生迟迟没收到转款 ,联系好友时才发现自己被骗 。
宁夏回族自治区银川市某公司部门经理张先生接到“老板”视频电话 ,对方称因情况紧急 ,急需转账汇款。在视频中确认是“老板”后,张先生放下了戒心 ,十几分钟内将20万元转入指定账户。直到下午当面汇报工作时,张先生才发现上当受骗 。
这些案件都是典型的AI诈骗。“你以为在和朋友亲人视频聊天,其实是骗子使用的‘AI换脸’技术,让别人的嘴能够‘对口型’。”宁夏回族自治区公安厅刑侦总队副总队长 、反诈中心负责人吴克刚介绍 ,如今 ,“AI换脸”技术不仅限于静态照片的活化,还能在即时视频通信中实时换脸。虽然需要采集大量不同角度的照片进行模型训练 ,但一旦成功,便可以假乱真 。过去,公民个人身份证号 、手机号以及家人信息需要重点防范 ,现在 ,人脸、声音 、指纹等同样要避免泄露。
新型AI诈骗主要有以下类型:语音合成诈骗,不法分子利用AI技术,合成受害人亲友或熟人的声音,让受害人误以为是亲友或熟人需要帮助,进而实施电话诈骗;图像生成诈骗 ,不法分子通过AI技术 ,生成虚假的照片或视频 ,制造出受害人亲友紧急且合理的情景 ,从而获取个人信息 ,骗取钱财;智能客服诈骗