研究人员在互联网上搜索了网络上提供的所有人工智能生成的“deepfake”视频,(令人惊讶!)大部分内容(96%)都是色情内容。
的人工智能修改过的视频绝大多数都是用现有的色情片段替换名人的脸,根据(在新窗口打开)到阿姆斯特丹一家专门检测深度假货的公司Deeptrace。
“我们还发现,四大深度造假色情网站的视频浏览量超过1.34亿次,这些视频针对的是全球数百名女明星,”深度追踪首席执行官乔治·帕特里尼在一份报告中说报告(在新窗口打开).“如此高的收视率表明,制作和托管深度造假色情内容的网站是有市场的,除非采取果断行动,否则这一趋势将继续增长。”
deepfake色情片专门针对女性,其中99%是女演员或音乐家,而且没有征得她们的同意。包括Pornhub、Twitter和Reddit在内的网站已经这样做了禁止但这些深度造假作品仍然可以通过快速的谷歌搜索在网上轻松找到。
该研究称:“我们发现deepfake色情生态系统几乎完全由专门的deepfake色情网站支持,我们发现的所有视频中有13254个在这些网站上。”“相比之下,主流色情网站只有802个视频。”
Deeptrace总共在网上发现了14678个深度造假视频,是2018年12月的两倍。该研究将这种增长归因于GitHub等计算机编码网站上免费提供的deepfake视频生成工具,以及臭名昭著的在线论坛4chan和8chan。尽管制作深度赝品的工具需要一些编程知识和足够的硬件,但Deeptrace也注意到在线市场服务的兴起,这些服务专门让任何人制作深度赝品并收取费用。
调查结果出炉之际,立法者和技术专家正在进行调查担心同样的人工智能视频编辑技术将被用于美国大选的宣传。作为回应,加州上周签署了一项新法案禁止(在新窗口打开)选举前60天内对政治候选人的深度造假。
然而,Deeptrace的研究强调,这些技术已经被滥用,用于制作未经双方同意的色情视频,以女性为目标。该公司表示:“深度造假将继续存在,它们的影响已经在全球范围内感受到。”“我们希望这份报告能促进对这一话题的进一步讨论,并强调制定一系列对策的重要性,以保护个人和组织免受深度造假的有害应用。”