脸书为一项人工智能功能道歉,该功能在用户看完《每日邮报》的黑人男性视频后,询问用户是否想“继续观看有关灵长类动物的视频”。
《纽约时报》报道(在一个新窗口中打开)该视频的特点是“黑人男子与白人平民和警察发生口角的片段”,而且“与猴子或灵长类动物没有任何联系”。该视频于2020年6月发布;报道没有说这个令人不快的提示显示了多长时间。
脸书告诉《纽约时报》,视频中出现的标签是“不可接受的错误”,并表示将调查该功能,“防止此类事件再次发生”。在该公司调查期间,为该视频添加标签的推荐引擎已被禁用。
这不是第一次发生这样的事情了。谷歌图片对图像排序例如,2015年,两名黑人被归为“大猩猩”一类,推特最近证实图像裁剪算法存在偏差对白人有利。
在相关算法中也发现了偏差面部识别,医疗保健等领域。然而,科技公司已将人工智能作为其业务日益重要的一个方面服务、应用程序和硬件尽管人们一直在担心这些特性背后的算法的不可靠性。
Facebook发言人Dani Lever在给《纽约时报》的一份声明中说:“正如我们所说的,虽然我们对人工智能进行了改进,但我们知道它并不完美,我们还有更多的进步要做。”“我们向所有可能看到这些冒犯性推荐的人道歉。”
What's New Now<\/strong> to get our top stories delivered to your inbox every morning.","first_published_at":"2021-09-30T21:30:40.000000Z","published_at":"2022-08-31T18:35:24.000000Z","last_published_at":"2022-08-31T18:35:20.000000Z","created_at":null,"updated_at":"2022-08-31T18:35:24.000000Z"})" x-show="showEmailSignUp()" class="rounded bg-gray-lightest text-center md:px-32 md:py-8 p-4 mt-8 container-xs">