弗朗西丝·豪根是每个人都在谈论她的名字60分钟被揭露为Facebook的举报人。
豪根曾是Facebook的产品经理,他被聘请来帮助在选举前确保社交网络的安全,并打击错误信息。这是一个有吸引力的角色,部分原因是她在网上的阴谋中失去了一个朋友。然而,豪根说,在2020年大选之后,Facebook解散了她的团队,即公民诚信部门,这让豪根认为该公司“不愿意真正投资需要投资的东西,以防止Facebook变得危险”。
在Twitter上,Facebook负责诚信的副总裁盖伊·罗森(Guy Rosen)对豪根的说法提出了质疑,他说,公民诚信被并入了“一个更大的中央诚信团队”。
推特(在新窗口中打开)
尽管如此,这位37岁的数据科学家在工作了近两年后于今年5月离开了这家公司,她带走了一些东西。“在2021年的某个时候,我意识到,‘好吧,我必须以一种系统的方式来做这件事,我必须走出去,没有人会质疑这是真的,’”Haugen告诉60分钟斯科特·佩利(在新窗口中打开)。据报道,她的策略是:从Facebook Workplace线程中秘密复制数万页Facebook内部研究,这表明该社交网络在打击仇恨、暴力和错误信息方面缺乏进展60分钟。
这些文件已提供给《华尔街日报》该网站发表了几篇故事,作为其配音系列的一部分Facebook文件(在新窗口中打开)。昨晚,杂志证实豪根确实是Facebook的举报人。
在2019年加入Facebook之前,豪根曾为谷歌、Yelp和Pinterest等多家科技巨头工作。她说:“我见过很多社交网站,Facebook的情况比我以前见过的任何网站都糟糕。”
针对仇恨进行优化
她解释说,公司问题的根源在于2018年Facebook对算法做出的改变该应用会调整用户在动态消息中看到的内容,试图“改善心理健康”。排名算法开始显示更多来自家庭、朋友和团体的帖子,而较少来自企业、品牌和媒体组织的内容。Facebook预计,这一变化将意味着人们花在这款应用上的时间更少、“更有价值”。
豪根表示:“Facebook如今挑选内容的结果之一是,它正在优化那些能够吸引用户或产生反应的内容。“但它自己的研究表明,仇恨、分裂、两极分化的内容……比其他情绪更容易激发人们的愤怒。”
她补充说:“Facebook已经意识到,如果他们改变算法使其更安全,人们在网站上花费的时间就会减少,他们点击的广告就会减少,赚的钱也会减少。”
推特(在新窗口中打开)
在一个声明60分钟(在新窗口中打开), Facebook为自己的决定进行了辩护,指出“每天,我们的团队都必须在保护数十亿人公开表达自己意见的权利与保持我们平台安全和积极的必要性之间取得平衡。”我们将继续做出重大改进,以应对错误信息和有害内容的传播。有人说我们鼓励不良内容,什么都不做,这是不正确的。”
其中一项内部研究是Haugen发布到《华尔街日报》(在新窗口中打开)在有过自杀念头的青少年中,13%的英国用户和6%的美国用户将其归咎于Instagram。上个月底,Facebook副总裁兼研究主管Pratiti Raychoudrhury驳斥这种描述他声称,该公司“在我们的平台上最小化坏的,最大化好的”的一部分努力需要识别问题。
推特(在新窗口中打开)
“我们生活在一个充满愤怒、仇恨和两极分化内容的信息环境中;它侵蚀了我们的公民信任,侵蚀了我们对彼此的信任,侵蚀了我们想要互相关心的能力,”豪根说。“今天存在的Facebook版本正在撕裂我们的社会,并在世界各地引发种族暴力”——就像2018年的缅甸,军方利用社交网络发动了种族灭绝。
“Facebook一次又一次地表明,它选择利润而不是安全,”举报人补充道。“我希望这将对世界产生足够大的影响,让他们有勇气和动力真正实施这些规定。这是我的希望。”
Haugen是预定出庭作证(在新窗口中打开)在美国东部时间10月5日星期二上午10点开始的参议院消费者保护,产品安全和数据安全小组委员会面前。