PCMag编辑选择和审查产品独立.如果您通过附属链接购买,我们可能获得佣金,这有助于支持我们的测试。

什么是Deepfake?

自2018年首次出现以来,深度造假技术已经从业余爱好者的实验发展成为一种有效但有潜在危险的工具。以下是它的含义和用法。不要相信你看到的每一个视频!

在2020年深度学习入门课程的开幕式上,麻省理工学院(MIT)的博士生亚历山大·阿米尼邀请了一位著名嘉宾:美国前总统巴拉克·奥巴马。

奥巴马通过视频会议参加了该课程,他说:“深度学习正在变革如此多的领域,从机器人到医学,以及介于两者之间的一切。”

在讲了一点关于的美德之后人工智能,奥巴马透露了一个重要信息:“事实上,这整个演讲和视频都不是真实的,而是用深度学习和人工智能。”

阿米尼的奥巴马视频其实是deepfake——一段人工智能篡改的视频,在视频中,演员的面部动作被转移到目标身上。自2018年首次出现以来,深度造假技术已经从业余爱好者的实验发展成为一种有效但危险的工具。深度造假被用来对付名人和政客,已经成为对真相本身的威胁。

深度造假是如何运作的?

Deepfake应用程序的工作方式多种多样。有些将演员的面部动作转移到目标视频中,比如我们在本文开头看到的那个视频,或者喜剧演员乔丹·皮尔(Jordan Peele)创建的这个奥巴马深度造假视频,以警告假新闻的威胁:

还有一些深度造假将目标人物的脸映射到其他视频上——例如,尼古拉斯·凯奇的脸映射到不同电影中的角色的脸上。

与当代大多数基于人工智能的应用一样,深度造假也在使用深层神经网络(这就是deepfake中的“深度”的来源),这是一种特别擅长在大量数据中发现模式和相关性的人工智能算法。神经网络已被证明特别擅长计算机视觉这是计算机科学和人工智能的一个分支,负责处理视觉数据。

Deepfakes使用一种被称为“自动编码器”的特殊类型的神经网络结构。自动编码器由两部分组成:编码器,它将图像压缩为少量数据;还有一个解码器,可以将压缩后的数据解压缩回原始图像。这种机制类似于图像和视频编解码器,如JPEG和MPEG。

autoencoder层
图片由Two Minute Papers提供

但与传统的编码器/解码器软件不同的是,自动编码器操作的是图像中的特征,如形状、物体和纹理。一个训练有素的自动编码器不仅可以进行压缩和解压,还可以执行其他任务——例如,生成新图像或从颗粒状图像中去除噪声。当对人脸图像进行训练时,自动编码器会学习人脸的特征:眼睛、鼻子、嘴巴、眉毛等等。

Deepfake应用程序使用两个自动编码器——一个在演员的脸上训练,另一个在目标的脸上训练。应用程序交换两个自动编码器的输入和输出,以将参与者的面部运动传输到目标。

深度造假的特别之处在哪里?

深度造假技术并不是唯一一种可以在视频中交换人脸的技术。事实上,视觉特效行业已经这样做了几十年。但在深度造假出现之前,这种能力只局限于拥有丰富技术资源的财力雄厚的电影公司。

深度造假使得视频中交换面孔的功能更加大众化。现在,只要你的电脑有一个不错的处理器和强大的显卡(比如英伟达GeForce GTX 1080)或者花几百美元租用云计算和GPU资源。

也就是说,制造深度造假既不是小事,也不是完全自动化的。这项技术正在逐渐完善,但要制作出一个像样的deepfake仍然需要大量的时间和手工工作。

首先,你必须收集许多目标和演员的面部照片,这些照片必须从不同的角度显示每张脸。这一过程通常包括从目标和演员的视频中抓取数千帧,并将它们裁剪为只包含面部。新的深度伪造工具,如Faceswap,可以通过自动提取和裁剪帧来完成部分工作,但它们仍然需要手动调整。

训练AI模型和创建deepfake可能需要几天到两周的时间,这取决于硬件配置和训练数据的质量。

深度造假的危险

为你最喜欢的电影制作有趣的教育视频和定制cast并不是深度造假的唯一用途。人工智能篡改视频的阴暗面比它的积极和良性用途更为突出。

在第一个deepfake程序发布后不久,Reddit就被淹没了假的色情视频(在一个新窗口中打开)它的主角是名人和政客。与深度造假相配合,其他人工智能技术的发展不仅使伪造人脸成为可能还有声音几乎任何人。

深度造假的兴起还引发了其他担忧。这里有一个很及时的问题:如果任何人都能用技术制作假色情片,那么什么能阻止坏演员传播政客发表争议言论的假视频呢?

有报道称,社交媒体算法加速了虚假信息的传播假新闻深度造假技术引发的危机已经成为一个严重问题,尤其是在美国准备2020年总统大选之际。美国立法者将深度造假列为一种对国家安全的威胁(在一个新窗口中打开)并就可能滥用该技术通过虚假信息运动影响公众舆论举行了几次听证会。我们已经看到一系列的立法措施(在一个新窗口中打开)禁止深度造假,并追究制造和传播深度造假的人的责任。

打击深度造假

早期的深度赝品包含肉眼可见的视觉假象,包括不自然的眼睛闪烁(在一个新窗口中打开)以及异常的肤色变化。但深度造假技术在不断改进。

研究人员一直在设计检测深度造假的新技术,但随着技术的不断发展和产生更多自然结果,这些技术逐渐失效。因此,随着2020年总统选举的临近,大型科技公司和政府机构一直在竞相遏制深度造假的传播。

今年9月,Facebook、微软(Microsoft)和几所大学发起了一场竞赛,旨在开发能够检测深度造假和其他人工智能篡改视频的工具。“这是一个不断演变的问题,就像垃圾邮件或其他对抗性挑战一样,我们希望通过帮助行业和人工智能社区团结起来,我们可以取得更快的进展,”Facebook首席技术官迈克尔·斯科洛普夫(Michael Schroepfer)说在一篇博客文章中写道(在一个新窗口中打开)推出了Deepfake检测挑战。这家社交媒体巨头已经为整个行业的努力拨款1000万美元。

国防部高级研究计划局(DARPA)也在进行研究启动了一项计划(在一个新窗口中打开)遏制深度造假和其他自动虚假信息攻击的传播。除了检测被篡改的视频和图像外,DARPA还将寻找方法,以促进归因和识别虚假媒体的相关方。

大学和研究实验室的其他努力包括使用深度学习检测图像中的修改区域使用区块链建立一个基本事实,并注册可信赖的视频。

但总的来说,研究人员一致认为,打击深度造假的斗争已经变成了一场猫捉老鼠的追逐。作为一位研究人员去年告诉我“不管我们做什么,制造这些操作的人总会想出别的办法。我不知道是否有一天我们能够检测到所有类型的操作。”

个人电脑的标志这个可怕的深度伪造工具可以让人说出他们从未说过的话——未来闪现
What's New Now<\/strong> to get our top stories delivered to your inbox every morning.","first_published_at":"2021-09-30T21:30:40.000000Z","published_at":"2022-08-31T18:35:24.000000Z","last_published_at":"2022-08-31T18:35:20.000000Z","created_at":null,"updated_at":"2022-08-31T18:35:24.000000Z"})" x-show="showEmailSignUp()" class="rounded bg-gray-lightest text-center md:px-32 md:py-8 p-4 mt-8 container-xs">

获取我们最好的故事!

报名参加现在的新让我们的头条新闻每天早上送到您的收件箱。

本通讯可能包含广告、交易或附属链接。订阅通讯表明您同意我们的使用条款而且隐私政策.您可以随时取消订阅通讯。beplay体育苹果下载


感谢您的报名!

您的订阅已被确认。留意你的收件箱!

注册其他通讯beplay体育苹果下载

你会喜欢的PCMag故事

关于本迪克森

本迪克森

本·迪克森是一名软件工程师和科技博主。他的文章涉及颠覆性技术趋势,包括人工智能、虚拟和增强现实、区块链、物联网和网络安全。本还经营着博客TechTalks。在Twitter和Facebook上关注他。

阅读本的完整简历

阅读本·迪克森的最新报道

Baidu
map