在2020年深度学习入门课程的开幕式上,麻省理工学院(MIT)的博士生亚历山大·阿米尼邀请了一位著名嘉宾:美国前总统巴拉克·奥巴马。
奥巴马通过视频会议参加了该课程,他说:“深度学习正在变革如此多的领域,从机器人到医学,以及介于两者之间的一切。”
在讲了一点关于的美德之后人工智能,奥巴马透露了一个重要信息:“事实上,这整个演讲和视频都不是真实的,而是用深度学习还有人工智能。”
阿米尼的奥巴马视频其实是deepfake——一段人工智能篡改的视频,在视频中,演员的面部动作被转移到目标身上。自2018年首次出现以来,深度造假技术已经从业余爱好者的实验发展成为一种有效但危险的工具。深度造假被用来对付名人和政客,已经成为对真相本身的威胁。
深度造假是如何运作的?
Deepfake应用程序的工作方式多种多样。有些将演员的面部动作转移到目标视频中,比如我们在本文开头看到的那个视频,或者喜剧演员乔丹·皮尔(Jordan Peele)创建的这个奥巴马深度造假视频,以警告假新闻的威胁:
还有一些深度造假将目标人物的脸映射到其他视频上——例如,尼古拉斯·凯奇的脸映射到不同电影中的角色的脸上。
与当代大多数基于人工智能的应用一样,深度造假也在使用深度神经网络(这就是deepfake中的“深度”的来源),这是一种特别擅长在大量数据中发现模式和相关性的人工智能算法。神经网络已被证明特别擅长计算机视觉这是计算机科学和人工智能的一个分支,负责处理视觉数据。
Deepfakes使用一种被称为“自动编码器”的特殊类型的神经网络结构。自动编码器由两部分组成:编码器,它将图像压缩为少量数据;还有一个解码器,可以将压缩后的数据解压缩回原始图像。这种机制类似于图像和视频编解码器,如JPEG和MPEG。
但与传统的编码器/解码器软件不同的是,自动编码器操作的是图像中的特征,如形状、物体和纹理。一个训练有素的自动编码器不仅可以进行压缩和解压,还可以执行其他任务——例如,生成新图像或从颗粒状图像中去除噪声。当对人脸图像进行训练时,自动编码器会学习人脸的特征:眼睛、鼻子、嘴巴、眉毛等等。
Deepfake应用程序使用两个自动编码器——一个在演员的脸上训练,另一个在目标的脸上训练。应用程序交换两个自动编码器的输入和输出,以将参与者的面部运动传输到目标。
深度造假的特别之处在哪里?
深度造假技术并不是唯一一种可以在视频中交换人脸的技术。事实上,视觉特效行业已经这样做了几十年。但在深度造假出现之前,这种能力只局限于拥有丰富技术资源的财力雄厚的电影公司。
深度造假使得视频中交换面孔的功能更加大众化。现在,只要你的电脑有一个不错的处理器和强大的显卡(比如英伟达GeForce GTX 1080)或者花几百美元租用云计算和GPU资源。
也就是说,制造深度造假既不是小事,也不是完全自动化的。这项技术正在逐渐完善,但要制作出一个像样的deepfake仍然需要大量的时间和手工工作。
首先,你必须收集许多目标和演员的面部照片,这些照片必须从不同的角度显示每张脸。这一过程通常包括从目标和演员的视频中抓取数千帧,并将它们裁剪为只包含面部。新的深度伪造工具,如Faceswap,可以通过自动提取和裁剪帧来完成部分工作,但它们仍然需要手动调整。
训练AI模型和创建deepfake可能需要几天到两周的时间,这取决于硬件配置和训练数据的质量。
深度造假的危险
为你最喜欢的电影制作有趣的教育视频和定制cast并不是深度造假的唯一用途。人工智能篡改视频的阴暗面比它的积极和良性用途更为突出。
在第一个deepfake程序发布后不久,Reddit就被淹没了假色情视频(在一个新窗口中打开)它的主角是名人和政客。与深度造假相配合,其他人工智能技术的发展不仅使伪造人脸成为可能还有声音几乎所有人。
深度造假的兴起还引发了其他担忧。这里有一个很及时的问题:如果任何人都能用技术制作假色情片,那么什么能阻止坏演员传播政客发表争议言论的假视频呢?
有报道称,社交媒体算法加速了虚假信息的传播假新闻深度造假技术引发的危机已经成为一个严重问题,尤其是在美国准备2020年总统大选之际。美国立法者将深度造假列为一种对国家安全的威胁(在一个新窗口中打开)并就可能滥用该技术通过虚假信息运动影响公众舆论举行了几次听证会。我们已经看到一系列的立法措施(在一个新窗口中打开)禁止深度造假,并追究制造和传播深度造假的人的责任。
打击深度造假
早期的深度赝品包含肉眼可见的视觉假象,包括不自然地眨眼(在一个新窗口中打开)以及异常的肤色变化。但深度造假技术在不断改进。
研究人员一直在设计检测深度造假的新技术,但随着技术的不断发展和产生更多自然结果,这些技术逐渐失效。因此,随着2020年总统选举的临近,大型科技公司和政府机构一直在竞相遏制深度造假的传播。
今年9月,Facebook、微软(Microsoft)和几所大学发起了一场竞赛,旨在开发能够检测深度造假和其他人工智能篡改视频的工具。“这是一个不断演变的问题,就像垃圾邮件或其他对抗性挑战一样,我们希望通过帮助行业和人工智能社区团结起来,我们可以取得更快的进展,”Facebook首席技术官迈克尔·斯科洛普夫(Michael Schroepfer)说在一篇博客文章中写道(在一个新窗口中打开)推出了Deepfake检测挑战。这家社交媒体巨头已经为整个行业的努力拨款1000万美元。
国防部高级研究计划局(DARPA)也在进行研究发起一项倡议(在一个新窗口中打开)遏制深度造假和其他自动虚假信息攻击的传播。除了检测被篡改的视频和图像外,DARPA还将寻找方法,以促进归因和识别虚假媒体的相关方。
大学和研究实验室的其他努力包括使用深度学习检测图像中的修改区域使用区块链建立一个基本事实,并注册可信赖的视频。
但总的来说,研究人员一致认为,打击深度造假的斗争已经变成了一场猫捉老鼠的追逐。作为一位研究人员去年告诉我“不管我们做什么,制造这些操作的人总会想出别的办法。我不知道是否有一天我们能够检测到所有类型的操作。”