社交网络Facebook表示,该公司的人工智能未能检测到上周五新西兰清真寺袭击的实时视频,原因是该系统不够智能,无法识别袭击者拍摄的大规模枪击事件。
在一个星期三博客(在一个新窗口中打开)在美国,Facebook详细介绍了它是如何应对恐怖袭击视频的平台直播。
Facebook一直在使用人工智能算法自动删除含有色情和恐怖分子赞助内容的视频和图片。这些算法之所以能够做到这一点,是因为它们已经得到了大量真实世界中违规内容的例子。
上周五的枪击事件没有被系统发现,因为Facebook没有大规模枪击直播的训练数据。Facebook副总裁盖伊·罗森写道,谢天谢地,这种事件很少发生。
Facebook上流行的描述第一人称射击游戏画面的视频让情况变得更加复杂。罗森补充说:“另一个挑战是自动从视觉上相似的、无害的内容中分辨出这些内容——例如,如果我们的系统标记了数千个视频直播游戏中的视频,我们的审查员可能会错过重要的现实世界视频,而我们可以在这些视频中向现场急救人员发出警报以获得帮助。”
因此,该公司不得不依赖用户来了解拍摄镜头。然而,在直播过程中,该视频只被观看了200次,没有一次产生用户报告。在直播结束12分钟后,一名Facebook用户终于举报了该内容。
在最初的视频被撤下Facebook之前,它已经被观看了4000次。但最终,越来越多的用户开始在Facebook上分享和发布这段视频的新副本。
罗森将这段视频的传播归咎于三种人:故意播放视频的坏演员;报道该事件的媒体;普通用户对这一事件感到好奇。更糟糕的是,这些视频的新副本以不同的格式被分享,使得Facebook的自动系统更难检测和删除这些视频。
罗森说:“我们总共发现并屏蔽了800多个在视觉上明显不同的视频版本。”Facebook的系统最终变得足够智能,在上传过程中自动删除了120多万段攻击视频。然而,大约30万份拷贝在发布后才被撤下。
那么,Facebook该如何防止另一起枪击事件传播开来呢?该公司没有提供任何明确的解决方案。“有些人问我们是否应该在Facebook Live上添加延时功能,就像电视台有时使用的直播延时功能一样。(但是)每天有数百万的直播,这意味着由于视频的数量太多,延迟将无助于解决问题。”罗森说。
然而,该公司确实计划改进其人工智能系统,以快速检测和防止问题视频传播。其中一项实验是使用基于音频的技术来识别同一视频的不同格式。