最近
人工智能风靡网络
新技术带来欢乐的同时
也带来了名为
“AI换脸诈骗”的新骗术
AI是如何做到“换脸”的?
这种骗术如何防?
↓↓↓
视频“变脸”相似度可达80%
青岛的一名大学生
和他在网上认识的“女朋友”视频聊天
对方称需要资金周转
男孩打钱过去之后
发现竟然被诈骗了
有关部门通过取证发现
跟他聊天的并不是女朋友
对方是用虚拟的摄像头
通过AI换脸的功能跟他进行聊天
一个高配置的电脑
合成一段10秒的换脸视频
只需要一两分钟
随着技术的发展
视频聊天的实时变脸也不是难事
换脸后的相似度可以达到80%
AI是如何做到在视频通话时换脸的?
照片上传后
一般会有30秒钟左右的时间
对照片进行特征识别
然后进行建模
建模后就可以进行实时转换
不管是你的头像
还是在朋友圈的一张小照片
都可以直接上传
然后进行特征的识别建模
AI生成的技术
还在不断地更新迭代
比如性别的互换,声音的变换
都可以同步进行
由于算法是开源的
也就是说一个普通的工程师
就可以制作出一个变脸软件
这就导致在控制源头上十分困难
我们该如何识破此类骗术?
目前视频换脸的技术上
并非无懈可击
视频沟通时的一些动作
就可以发现破绽
据介绍
如果 让对方用手捂脸、动一动
就会干扰到图像的合成
从演示中可以看到
把手放上去后
演示者的眼睛、鼻子开始抖动↓
但 AI合成软件的升级
可能是飞速的
如果动作捕捉已经被避开
我们就需要通过
更专业的软件来分辨
目前 这类鉴别软件
对设备和周边的要求也比较高
使用起来并不普及
不过让视频传播的网站或者社交软件
使用专业的鉴别软件来鉴定
再打上“AI制作”的标签
在现阶段不失为一个方法
预防“AI换脸诈骗”
大家还要加强
对人脸、声纹、步态、指纹等
生物特征数据的安全防护
我们在使用互联网服务或在社会生活中
被要求输入人脸等生物特征数据的时候
要看对方收集我们的生物特征数据
是否合法、正当和必要
擦亮双眼
谨防上当
责编 赵蒙蒙