PCMag编辑选择和审查产品独立.如果您通过附属链接购买,我们可能会赚取佣金,这有助于支持我们的测试。

招聘人力帮助:为什么AI在内容审核方面很糟糕

人工智能经常无法理解上下文,这意味着,就目前而言,监控网络上用户生成的内容仍将是一场需要大量人力的猫捉老鼠游戏。

每天,Facebook的人工智能算法解决了查找和删除数百万个包含垃圾邮件、仇恨言论、裸体、暴力和恐怖主义宣传的帖子的艰巨任务。尽管该公司拥有世界上最令人垂涎的人才和技术,但它仍在努力以足够快的速度找到并删除有毒内容。

意见 3月,新西兰发生枪击事件现场直播在Facebook上,51人在两座清真寺被残忍杀害。但这家社交媒体巨头的算法未能检测到这段可怕的视频。Facebook花了一个小时才撤下这段视频,即便如此,该公司也很难处理转发视频的用户。

Facebook最近公布的数据关于其人工智能算法成功发现有问题内容的频率。尽管该报告显示,该公司在多年来自动化内容审核的努力中取得了巨大进展,但它也强调了当代人工智能经常无法理解上下文。

数据不足

处于人工智能前沿的人工神经网络和深度学习技术,已经帮助实现了以前计算机软件无法实现的任务自动化。其中一些任务是语音识别、图像分类和自然语言处理(NLP)。

在许多情况下,神经网络的精度超过了人类。例如,人工智能可以提前五年预测乳腺癌.但深度学习也有局限性.也就是说,它需要在大量的例子上进行“训练”,才能实现最佳功能。例如,如果你想创建一个检测成人内容的神经网络,你必须首先向它展示数百万个带注释的例子。没有高质量的训练数据,神经网络会犯愚蠢的错误。

人工智能

去年,Tumblr宣布将在其网站上禁止成人内容的使用机器学习标记包含NSFW图像的帖子。但它过早地部署了人工智能模型屏蔽无害内容比如巨魔袜、LED牛仔裤和乔·拜登的照片。

在许多情况下,比如暴力内容,没有足够的例子来训练一个可靠的人工智能模型。Facebook首席人工智能科学家扬·勒丘恩表示:“值得庆幸的是,我们并没有太多真人向他人开枪的例子。告诉彭博社(在新窗口打开)

神经网络也缺乏情景感知能力。他们只在新内容和已经展示的例子之间进行统计比较。即使在许多例子上进行训练,神经网络在面对与训练数据不同的边缘情况时也会表现不稳定。

脸书的人工智能未能检测到新西兰大屠杀视频,因为它是以第一人称视角播放的,与过去上传的任何视频都不相似。观看视频的人会立即意识到其中的暴力内容。但是脸书的神经网络只提取和比较像素的模式,认为它是安全的

背景和意图

Facebook本可以用大量电影中的暴力场景来训练它的人工智能,以增强它的审核能力。但这只会让人工智能感到困惑,因为它无法区分电影和真实的暴力,而且会同时屏蔽两者。

这是因为神经网络面临的最紧迫的问题之一是它们无法理解上下文和意图。Facebook首席执行官马克·扎克伯格(Mark Zuckerberg)在去年与分析师的电话会议上用通俗易懂的语言解释了这一点(在新窗口打开),“制作一个可以检测乳头的人工智能系统,比确定什么是语言上的仇恨言论要容易得多。”

一个训练有素的神经网络可以很好地检测到裸体。根据脸书的数据,其人工智能检测裸体的准确率为96%。但它很难区分安全的裸体(比如母乳喂养或文艺复兴时期的艺术)和禁止的内容(比如性活动)之间的区别。

2016年,Facebook删除了一张越南战争的照片因为这篇文章刊登了一名9岁女孩在汽油弹袭击后逃离的裸照。该公司的算法将这张标志性图片标记为儿童色情;脸书随后向总理道歉,并恢复了这条微博。

2017年,YouTube承认人工智能误标记视频(在新窗口打开)被记者和研究人员作为极端主义内容发布,因为它无法区分宣扬极端主义的视频和有关该主题的报道。

互联的社交媒体

事情变得更加复杂当人工智能必须处理语音或文本时.深度学习算法在捕获和评估时间一致性方面是有效的。这就是为什么它们非常擅长识别语音,将音频转换为文本,以及检测垃圾邮件。但当它们被用于检测仇恨言论和骚扰时,它们就崩溃了。

这些任务要求人工智能理解人类语言的细微差别,这是一个很难用1和0来解决的问题。不同语言的仇恨言论有很大差异人们经常不同意(在新窗口打开)关于不良行为的构成。

根据脸书的报告,仇恨言论和骚扰是其人工智能表现不佳的两个领域。去年,在在美国国会作证扎克伯格表示,该公司将需要5到10年的时间来开发可以检测仇恨言论的人工智能。但如果人工智能的历史有任何迹象的话,这可能需要更长的时间。

适度仍然需要人类

随着Facebook和其他社交媒体网络致力于其人工智能算法,人类仍将是在线内容审核的重要组成部分。Facebook目前雇佣了超过20000人(在新窗口打开)在世界范围内审查用户生成的内容。

这些人的工资往往过低,而且必须整天处理令人不安的图片和内容,他们会检查人工智能算法标记的帖子,以恢复那些被错误屏蔽的帖子,并删除其他违反网站政策的帖子。他们的工作将有助于进一步训练人工智能并提高其准确性。但目前还没有迹象表明,人工智能是否或何时能够独立审查Facebook和其他社交网络上每天上传的数十亿条帖子。

就目前而言,内容审核仍将是一场需要大量人力的猫捉老鼠游戏。在一次采访中《纽约时报》(在新窗口打开)Facebook首席技术官迈克·斯科洛普夫承认,单靠人工智能无法解决该公司的有毒内容问题。

斯科洛普夫说:“我确实认为这是一个终局。”但“我不认为这是‘一切都解决了’,我们都收拾行李回家了。”

个人电脑的标志人工智能发展自己的语言

What's New Now<\/strong> to get our top stories delivered to your inbox every morning.","first_published_at":"2021-09-30T21:30:40.000000Z","published_at":"2022-08-31T18:35:24.000000Z","last_published_at":"2022-08-31T18:35:20.000000Z","created_at":null,"updated_at":"2022-08-31T18:35:24.000000Z"})" x-show="showEmailSignUp()" class="rounded bg-gray-lightest text-center md:px-32 md:py-8 p-4 mt-8 container-xs">

获取我们最好的故事!

报名参加最新消息让我们的头条新闻每天早上发送到您的收件箱。

本通讯可能包含广告、交易或附属链接。订阅通讯即表示您同意我们的服务使用条款而且隐私政策.你可以随时退订时事通讯。beplay体育苹果下载


感谢您的报名!

您的订阅已确认。留意你的收件箱!

注册其他时事通讯beplay体育苹果下载

你会喜欢的PCMag故事

关于本·迪克森

本迪克森

本·迪克森是一名软件工程师和科技博主。他撰写有关颠覆性技术趋势的文章,包括人工智能、虚拟现实和增强现实、区块链、物联网和网络安全。本还经营着TechTalks博客。在Twitter和Facebook上关注他。

阅读本的完整传记

阅读本·迪克森的最新报道

Baidu
map