Bumble正在使用人工智能检测和标记淫秽图像。
这个即将问世的系统被称为“私人探测器”,据称可以以98%的准确率识别露骨的色情图片。Bumble将使用它来阻止未经请求的裸照出现在人们在这款约会应用程序上的个人聊天记录中。当色情图片被分享时,系统将对图片进行模糊处理,并将其标记为对收件人不合适。
Bumble在一份声明中说:“从那里,用户可以决定是查看还是屏蔽图片,如果被迫,还可以很容易地向审核团队报告图片。”《Private Detector》将于6月登陆Bumble,随后登陆Badoo、Chappy和Lumen。Badoo在Bumble有股份流明(在一个新窗口中打开)而Bumble则是投资于(在一个新窗口中打开)花花公子。
当然,Bumble并不是第一家建立自己的人工智能算法来检测和标记裸体的科技公司。例如,Facebook多年来一直在使用人工智能扫描并删除色情或过度暴力内容的视频和图片。
然而,Bumble的创始人惠特尼·沃尔夫·赫德在宣布这一功能的同时,她也在游说德克萨斯州的立法者起草一份法案定罪(在一个新窗口中打开)发送未经请求的裸照。该法案要求对猥亵者处以最高500美元的罚款。
“数字世界可能是一个非常不安全的地方,充斥着下流、仇恨和不恰当的行为,”她在一份声明中说,“‘私人探测器’和我们对这项法案的支持只是我们展示我们致力于让互联网更安全的众多方式中的两种。”
根据(在一个新窗口中打开)据CNN报道,这款约会应用目前有5000名内容审核员,每天要处理1000万张照片。Bumble还禁止在人们的约会资料中出现裸照。