Deepfakes——那些看起来很真实、经过人工智能修饰的视频,描述的是从未真正发生过的事件——几年来一直是人们关注的焦点,随着技术的进步,检测变得越来越困难。
目前,编辑过的图像和视频留下的数字指纹可以用正确的工具检测到。例如,加州大学河滨分校的研究人员发达(在一个新窗口中打开)这是一种人工智能算法,可以通过发现编辑工具留下的不显眼的工件来识别经过处理的图像和视频。
这深度学习该算法由电气和计算机工程教授Amit Roy-Chowdhury和UCR的研究人员提出,它能发现由于插入、删除或操纵图像中的物体而引起的异常。Roy-Chowdhury解释说,这个想法是将图像操作本地化。“我们训练一个神经网络来识别未来图像中被操纵的区域,”他说。
开发“训练有素的神经网络”
神经网络是深度学习算法的基本组成部分。与开发人员手动给计算机指令的经典软件不同,神经网络通过分析和比较示例来发展自己的行为。
神经网络特别擅长发现模式,并对图像和视频等杂乱无章的非结构化数据进行分类。当你为一个神经网络提供足够多的某一类图像的例子时——这个过程被称为“训练”——它将能够在图像中找到它以前没有见过的相似特征。
罗伊-乔杜里说:“当有人操纵图像时,他们试图以一种人眼察觉不到的方式来做。”“但通常有一部分像素空间会受到这些操作的影响。”
UCR的研究人员训练他们的神经网络,用不同的工具处理带有注释的图像,并让它发现受影响物体边界上可见的共同像素模式。经过训练后,AI模型可以突出显示图像中包含被操作对象的区域。
抓住Deepfake
在目前阶段,深度学习模型适用于静态图像,但同样的技术也可以用于发现深度造假和其他视频操纵技术。深度造假基本上是一种每帧都被改变的视频,把一张脸换成另一张。
“这个想法也可以用在视频上。在每一帧中都有一个被操纵的区域,一个训练有素的神经网络可以突出被篡改的区域,”Roy-Chowdhury说。
我们的编辑推荐
UCR神经网络是旨在捕捉深度造假和其他图像和视频篡改技术的多项努力之一。今年早些时候,萨里大学的研究人员开发了一种组合区块链和神经网络注册真实的视频和识别篡改版本。奥尔巴尼大学的另一个项目使用两个神经网络检测合成视频(在一个新窗口中打开)通过发现不自然的现象,比如不眨眼的眼睛。
但随着识别方法的改进,创造逼真的伪造图像和视频的技术也在进步。罗伊-乔杜里说:“这是一场猫捉老鼠的游戏。”“这不是一个微不足道的问题。无论我们做什么,制造这些操纵的人总会想出别的办法。我不知道是否有一天我们能够检测到所有类型的操作。”