时间:2024-05-10
馒头老妖
前段时间,一段杨幂版“黄蓉”的视频横空出现,当网友还在疑惑杨幂什么时候演过黄蓉,就发现这发型、服饰,不都是1994年《射雕英雄传》中的朱茵版黄蓉吗?于是,网友们纷纷反应过来,她们被“换脸”了。
这里说的“换脸”,并不是一张硬邦邦的脸部截图贴在视频里的人脸上,一眼就能看穿的那种——事实上,当人物的位置、姿态、环境光线变化,甚至说话时,贴上去的那张“假脸”也会做出相应变化。
所以,视频上的人也可以被“改头换面”,变成另一个人的样子吗?答案,恐怕是一言难尽。
“换脸”还真能玩
首先必须肯定的是,这种技术如今已在一定程度上成為现实。
实现这一切也并不复杂:一个叫做DeeDfakes的小软件,只要几分钟时间,就能把视频上的人脸,换成你指定的那个人的脸部;所需要的素材,也只是“换上的那张脸”的主人的几段视频作为参考。
但软件背后的技术却相当复杂,用到了人工智能,可以用一张图来大致说明(左图)。
左边的多个“训练视频”,是来自于“换上的那张脸”的主人,比如杨幂。当人工智能程序“看过”之后,就会分析,弄清这张脸在不同姿态、不同角度、不同表情时是“什么样子的”。当我们导入“真实视频”,程序就会依据学到的知识,在真实视频上,把人物的脸部换成杨幂的样子。因为是掌握充分信息基础上的替换,所以仿真度极高。
这很像学美术:当你临摹过某位大师的很多作品之后,创作了一幅画。因为你的画作里处处透出他的风格、神韵,在外人看来,这就很像是这位大师的作品了。
我们临摹大师的绘画技艺也许需要几年,人工智能换脸可能只需要几分钟。当然用类似app制作换脸视频,娱乐尚可,稍不注意就很容易侵犯他人权益,甚至涉及违法。很可怕吗?
对网络安全而言,换脸视频的流行当然不是一个好消息。试想一下,某天你看到一段视频,主角就是你自己,却说了一段你从没说过的话,做了一些你从没做过的事,那可真是有口难辩了。如果你看过电影《解除好友:暗网》,就会理解这其中的恐怖之处。
好消息是,目前这种技术,对普通人而言,还没有多大威胁。人工智能程序虽然学习能力强、运算速度快,但依然需要大量的“学习资料”,也就是想要换脸的那个人的视频素材。这种视频素材越多、画面质量越高,程序学到的“知识点”也就越全面,模拟的效果越逼真。反之,如果只见过几小段画质很差、角度单一的视频,那“换脸”的效果当然也就很差了。
假设某人只有左耳上戴了一个耳钉,而交给人工智能学习的视频没有拍到这个耳钉。那么,无论这个程序如何智能,它模拟出来的“换脸”视频,画面上的人的左耳上,始终也不会有耳钉出现,就成了一个重大的破绽。
因此,为了实现逼真的“换脸”,高质量的视频素材是必不可少的。对于明星艺人来说,这根本不是门槛,但对普通人而言,能留在网上的视频数量很少,而且手机拍出来的视频,画质比不过专业设备拍出来的效果,作为素材提供给软件,破绽就很多了。
如何识别?
当然,对于网络安全工程师而言,却不能这么高枕无忧,必须针对这种“换脸”视频做出防御措施,以免有人将它用在更可怕的用途上,比如用来欺骗人脸识别系统。
一个比较简单的策略,就是放大之后,检查视频画面的细节。人工智能软件是在模仿,遇到素材里没有的细节,只有靠凭空猜测来填补。这种猜测很机械,比如脸部的某一小块,看起来很僵硬,或是明显有些扭曲、变形,那就说明这段视频很可能是被篡改过的。
更复杂的检测,则是把视频拆分为静态画面,比对不同画面上脸部的差异。同一张脸,可能在不同情况下,“换脸”软件对其处理的结果不完全一致,造成同一个人的脸在视频前后的变化。
而针对用视频欺骗人脸识别的风险,更多的还是依靠硬件识别。比如,用一束肉眼看不到的红外线照过去,因为脸部凹凸不平,反射回来的光线也是杂乱无章的漫反射;而如果那是一个手机或平板的玻璃屏幕,则反射回来的就是整齐有序的镜面反射了,被接收器识别后就能发现有诈。
“视频换脸”软件的出现,确实给网络安全提出了一个新的挑战,对于普通人而言,也要注意不要把自己的高清视频随意地放到网上,以防被人用作换脸的素材——不妨开个美颜功能再传,既更好看,又让坏人无机可乘呢。
我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!