最近,DeepFake技术又一次站在了风口浪尖上。不只是因为它能在小电影上移花接木,而是立法者终于意识到它的可怕之处。
6月初,一份有关马克·扎克伯格的假视频在国外社交媒体Instagram和Facebook上广为流传。
视频中的人,无论从相貌声音,还是穿着打扮,都跟真的扎克伯格几无二致。他能眨眼,会用手势,嘴/脸部动作和画外音音轨高度吻合。乍看之下,几乎找不到破绽,只是声音有些奇怪。
图
两名英国艺术家制作了扎克伯格的假视频(来源:bill_posters_uk)
更早之前,美国众议院议长 也经历了类似的事件。有人通过剪辑、拼接和慢放等手段制作了一段她的演讲视频,虽然没有用到AI技术,但视频中的她看起来有些神志不清,说话结结巴巴,语速缓慢,像是醉酒一样。
这段视频甚至引来了美国总统特朗普的嘲讽(两人素来不合)。
图
特朗普转发佩洛西视频,“佩洛西在新闻发布会上结结巴巴”(来源:Twitter)
令人不解的是,这些社交平台并没有选择 时间屏蔽虚假视频。事实上,正是因为Facebook拒绝撤下佩洛西的假视频,才导致有人做出了其CEO扎克伯格的假视频,来考验Facebook对虚假信息的衡量标准,看它会不会做出“自己打脸”的事情。
按照Facebook的官方回应,佩洛西的视频“没有违反平台的政策,因为所有人都可以自由表达自己(的想法),如果有第三方事实检测工具认定视频是假的,视频就会被打上标签,提醒用户注意其真实性,而且还会在推送中降低权重。”
换句话说,Facebook的态度就是:我们不会移除编辑过的假视频,但会让用户知道它不是真的。
其他社交巨头也都纷纷表态,Twitter选择了跟Facebook和Instagram站在一队,不会删除这些假视频,而谷歌旗下的YouTube则为了保险起见,选择了删除视频。
科技圈内部两极分化的情况也引发了舆论热议。有的人认为,纵容虚假信息流传会造成更大的混乱,尤其在政治和外交问题上,因此必须严格管控。
也有人认为,这些视频不会对某个个体造成实质性危害,贴上虚假标签即可。如果今天删除了它们,就会开创一个糟糕的先例,明天可能导致更严格的管控政策。
图
bill_posters_uk不满Instagram的做法,又上传了新的假视频,画外音用词更加激烈(来源:bill_posters_uk)
美国国会出手
美国国会也盯上了假视频和它背后的AI技术,因为不仅是佩洛西,就连总统特朗普都曾受到假视频的困扰。
与此同时,领英(LinkedIn)上还出现了一个疑似间谍的账号。她的名字是KatieJones,头像是一个典型的白人女性,毕业于密歇根大学,在美国国际战略研究中心(CSIS)工作。她的职场网络虽然只有50多人,但里面有美国参议员助理、副助理国务卿,以及美联储席位候选人兼经济学家PaulWindfree。
图
KatieJones的领英账号
根据调查,CSIS根本没有这样一个员工,密歇根大学也没有她的学位记录,而且她联系网内的人都不认识她。肖像审查专家判断,她的头像很可能是用AI技术生成的假脸,很多特征与AI假头像高度吻合。
再结合她添加的人都是政府重要人物,专家普遍认为,其目的很可能是隐藏自己,从他们身上获取信息,甚至添加更多位高权重的人物,将领英作为从事隐秘间谍活动的渠道。
图
从图片细节中鉴定假照片(来源:Twitter)
多名议员认为,如果对此类事件放任不管,不仅会影响到政治人物,还会 弱势群体和少数族裔,甚至波及年的美国总统大选。
因此,美国国会召开了有史以来 场有关DeepFake类技术的听证会,会议已于6月13号结束,相关法案也已经酝酿了数月之久,出台对该技术和社交平台的约束政策只是时间问题。
纵观历史,能受到如此待遇的技术并不多见,立法者如此大张旗鼓地针对它,足以看出它潜在的破坏力。
AI换脸术如何走红
如果放在10年前,恐怕很少有人会质疑一段视频的真实性,尤其是人脸清晰可见的视频。只不过随着AI技术的进步,凭空造出一个以假乱真的人脸,替换视频中的人脸,或者替换视频中的整个人物,都早已不是遥不可及的事情,甚至可能有些过于容易了。
年底横空出世的DeepFake技术,虽然不是 个实现换脸的技术,但却是将AI假视频带入大众视野的先驱。这是一种基于深度学习的伪造技术,适用于修改图片和影像,可以实现人脸的移花接木。哪怕是动图或视频中的人物,也可以被替换成毫不相干的另一个人。
图
美国演员JordanPeele用Deepfake技术“扮演”奥巴马讲话(来源:YouTube)
DeepFake的走红要归功于脑洞大开的网友,他们在色情视频中引入了DeepFake技术,将其中女主角的脸,替换成了一些当红女明星的脸,盖尔·加朵、艾玛·沃特森、斯嘉丽·约翰逊和泰勒·斯威夫特等大牌女星都难逃一劫,纷纷被替换到了不可描述的场景中。
由于视频中角色的脸部动作和视角变化较少,因此除了个别帧数出现渲染模糊和混乱的问题,DeepFake的替换效果足以以假乱真。
图
通过DeepFake技术,盖尔·加朵的脸被加在了成人女星身上(来源:reddit)
不过,出于恶搞精神也好,猎奇心态也罢,这些人无疑是滥用了DeepFake技术,对当事人造成了 ,而且维权无门。饱受其害的“黑寡妇”斯嘉丽就曾在公开场合表达了自己的愤怒和无奈。
鉴于其造成的恶劣影响,很多社交平台都开始封杀DeepFake视频。该技术的开发者也在GitHub上呼吁,“不要将DeepFake的换脸技术用于色情视频,它的价值并不在此。”
实际上,能够制造假图片和假视频的AI技术不仅仅只有DeepFake,相关技术在过去五年里层出不穷。这都要归功于另一项大名鼎鼎的深度学习技术:生成式对抗网络(GAN)。
这是一种让两个神经网络“左右互搏”的技术,其中一个网络负责生成物体,一个网络负责判别物体,两者通过不断对抗来创造非常真实的虚构图像、声音或视频。
自年IanGoodfellow发明GAN以来,世界范围内的很多深度学习团队和企业都开始在上面添砖加瓦,各种GAN框架漫天飞舞。
在DeepFake出现之前,就已经有了基于GAN的Face2Face技术和CycleGAN模型。前者可以通过摄像头捕捉人的脸部动作,然后实时转移到现有视频中的另一张人脸上,后者则可以改变图片和视频中物体或场景的样貌,实现马与斑马之间的转换。
图
Face2Face模拟特朗普说话(来源:Face2Face)
类似的技术还有很多。UC伯克利大学团队的EverybodyDanceNow,融合吸收了很多种GAN框架的精髓,可以分分钟让舞蹈小白看起来像是舞王附身,堪称是“舞蹈界的DeepFake”
图
两个不会跳舞的人在AI编辑下做出了有模有样的舞蹈动作(来源:EverybodyDanceNow)
英伟达的StyleGAN,可以自动生成惟妙惟肖的图片,适用于人脸、汽车、风景和动物等。对于人脸来说,StyleGAN用来混合的特征包括性别、肤色、脸型、姿势、表情、胡须、是否戴眼镜、头发长度和颜色等等。它虽然不是一个完美的模型,生成的图片经常出现瑕疵,但总体上效果出众。
有人用StyleGAN制作了一个网站thispersondoesnotexist.
转载请注明地址:http://www.1xbbk.net/jwbjj/2520.html