Bumble正在使用人工智能检测和标记淫秽图像。
这个即将推出的系统被称为“私人探测器”,据称可以识别出98%的色情图片。Bumble将使用它来阻止未经请求的裸照出现在约会应用程序的个人聊天中。当一张淫秽图片被分享时,系统会模糊图像,并将其标记为不适合接收者。
Bumble在一份声明中说:“从那里,用户可以决定是查看还是屏蔽图像,如果被强迫,可以很容易地向审核团队报告图像。”《Private Detector》将于6月登陆Bumble,然后登陆Badoo、Chappy和Lumen。Badoo在Bumble有股份流明(在新窗口中打开),而Bumble做到了投资于(在新窗口中打开)花花公子。
当然,Bumble并不是第一家建立自己的人工智能算法来检测和标记裸体的科技公司。例如,Facebook多年来一直在使用人工智能扫描和删除含有色情或过度暴力内容的视频和图片。
然而,Bumble的创始人惠特尼·沃尔夫·赫德宣布了这一功能,同时她也在游说德克萨斯州的立法者起草一项法案定罪(在新窗口中打开)发送未经请求的裸照。该法案要求对猥亵暴露的违规者处以最高500美元的罚款。
“数字世界可能是一个非常不安全的地方,充斥着淫秽、仇恨和不恰当的行为,”她在一份声明中说,“‘私人探测器’和我们对这项法案的支持,只是我们展示我们致力于让互联网更安全的众多方式中的两种。”
根据(在新窗口中打开)据CNN报道,这款约会应用目前有5000名内容审核员,他们每天要处理1000万张照片。Bumble还禁止人们在约会资料中出现裸照。