发布时间:2024-12-27 16:34:17 来源: sp20241227
最近,视频网站上通过人工智能换脸,《亮剑》里的主角用英语飙起了台词,通过小程序用户也可以将自己变成电影里的人物。新技术带来欢乐的同时,也带来了一种名为“AI换脸诈骗”的新骗术。前不久,国家金融监督管理总局北京监管局发布谨防“AI换脸”等新型欺诈手段的风险提示,这种骗术如何防?一起关注——
青岛的一名大学生和他在网上认识的“女朋友”视频聊天,对方称需要资金周转,男孩打钱过去之后,发现竟然被诈骗了。
深圳安络科技市场部经理 梁雅婷:我们通过取证发现其实跟他聊天的并不是他的女朋友,对方是通过虚拟的摄像头,然后通过AI换脸的功能跟他进行聊天。
那么AI如何做到在视频通话时换脸呢?记者在一家为公安机关提供技术支持的科技公司看到的演示,相似度可以达到80%。
深圳安络科技产品部经理 刘远洋:刚才我们拍了一张照片,然后上传到电脑上面,我们只需要打开软件选择头像,左边已经看到我们的图片,右边是事先拍好的一段视频。工程师已经把所有的参数都已经设定好了,我们只需要点击开始执行,输入要保存的文件名,这个窗口弹出来过后,换脸视频就已经开始生成了。
我们在现场看到,一个高配置的电脑,合成一段10秒的换脸视频只需要一两分钟。而技术的发展,视频聊天的实时变脸也不是难事了。
深圳安络科技产品部经理 刘远洋:照片上传后,一般就会有30秒钟左右的时间,对照片进行特征识别,然后进行建模。建模好过后就可以进行实时转换,不管是你的头像,还是在朋友圈的一张小照片,只要是照片都可以直接上传,进行特征的识别建模。
AI生成的技术还在不断地更新迭代,比如性别的互换,声音的变换,都可以同步进行。由于算法是开源的,也就是说一个普通的工程师就可以制作出一个变脸软件,这就导致我们在控制源头上带来了极大的困难。
AI换脸用于诈骗 反诈也有新手段
不断迭代的AI技术,已经把换脸视频做到“真假难辨”,那么我们应该如何防范此类新型诈骗呢?
首先,目前视频换脸的技术上也不是无懈可击的,视频沟通时的一些动作,就可以发现破绽。
深圳安络科技副总裁 肖坚炜:在这个操作中,如果我用另外第三个图像去干扰它,比如让他用手捂脸、动一动,就会干扰到图像的合成。从这里演示看,我把手放上去之后,会明显地看到屏幕上我们同事的眼睛在抖动了,鼻子在抖动了,我的手已经消失了,嘴巴也消失了。
除了让对方在脸部做出一些动作来判断,专家介绍,AI合成软件的升级可能是飞速的,如果动作捕捉已经被避开,那么我们就需要通过一些更专业的软件来分辨了。
深圳安络科技副总裁 肖坚炜:我们可以通过软件来识别,比如人的整个轮廓,替换的眼睛、鼻子、嘴巴这里,它的像素大小是不一样的,颜色的色域是有差别的。像我们的衣服一样,要打一个补丁,是没办法做到完美的。这些我们眼睛肉眼看不出来,但是软件算法是可以检测出来的。
目前,这类鉴别软件对设备和周边的要求也比较高,使用起来并不普及。不过,让视频传播的网站或者社交软件,使用专业的鉴别软件来鉴定,再打上“AI制作”的标签,在现阶段不失为一个方法。
预防“AI换脸诈骗”,大家还要加强对人脸、声纹、步态、指纹等生物特征数据的安全防护。
中国科技大学公共事务学院、网络空间安全学院教授 左晓栋:在使用互联网服务或者在社会生活中,要求输入人脸等生物特征数据的时候,我们要看一看,对方收集我们的生物特征数据是不是符合数据安全法,个人信息保护法的要求,是不是合法、正当和必要。
此外,国家也在通过多重手段防范“AI换脸诈骗”,近两年,相关部门先后出台了互联网信息服务深度合成管理规定,生成式人工智能服务管理暂行办法等有关政策文件。先后开展了“互联网深度合成算法备案”“大语言模型算法备案”等有关工作。严厉打击利用AI换脸、变声等手段实施的违法犯罪行为。
中国科技大学公共事务学院 网络空间安全学院教授 左晓栋:目前看来初步遏制了滥用人工智能技术。特别是从事违法犯罪的这些势头,整体治理效果开始显现,而且也有力促进了人工智能技术的规范发展。(央视新闻客户端)
【编辑:曹子健】