关闭 关闭 注释 知识共享 捐赠 电子邮件 添加电子邮件 脸谱网 一款图片分享应用 乳臭虫 脸书Messenger 手机 导航菜单 播客 打印 RSS(RSS) 搜索 安全 推特 WhatsApp软件 YouTube网站

脸书对仇恨言论规则的不均衡执行让卑鄙的帖子保持不动

我们询问了Facebook对49条可能被视为冒犯性帖子的处理方式。该公司承认,其内容审查人员对其中22人打错了电话。

Daniel Villeneuve通过Getty Images

本文中转载的一些帖子的图形内容可能会冒犯一些读者。然而,我们认为,如果读者没有看到仇恨言论的朴实无华和未经修改,他们就无法充分理解如何处理仇恨言论的重要性。

脸书的社区标准禁止基于宗教习俗对人们进行暴力威胁。因此,当ProPublica的读者霍利·韦斯特(Holly West)在脸书上看到这条图形化的帖子,宣称“唯一的好穆斯林是一个该死的死人”时,她使用社交网络的报告系统将其标记为仇恨言论。

警告:此图像包含冒犯性内容。单击以查看。

脸书宣布这张照片可以接受。该公司向West发送了一条自动消息,称:“我们查看了照片,虽然它没有违反我们的特定社区标准,但我们知道它可能仍会冒犯您和其他人。”

但在用户反复报道后,脸书删除了一条更为简洁的反穆斯林评论——一句话宣称“穆斯林之死”,但没有附带图片。

这两篇帖子都违反了脸书反对仇恨言论的政策。但其中只有一个被脸书7500名审查员抓获,这些审查员被称为内容审查员,他们决定是否允许或删除其20亿用户标记的帖子。在与ProPublica联系后,脸书也删除了西方所抱怨的内容。

警告:此图像包含冒犯性内容。单击以查看。

ProPublica在对提交给我们的900多篇帖子的分析中发现,这样不一致的Facebook裁决并不罕见众包调查了解世界上最大的社交网络如何实施仇恨言论规则。基于这一小部分Facebook帖子,其内容审查人员经常对内容相似的项目进行不同的访问,并且并不总是遵守公司复杂的指导原则。即使他们遵守了规则,种族主义或性别歧视的语言也可能经得起审查,因为它不足以达到脸书对仇恨言论的定义。

我们要求脸书解释它对49个条目的样本所做的决定,这些条目是由那些坚持认为内容审查者犯了错误的人发送的,主要是因为留下了仇恨言论,或者在一些情况下删除了合法的表达。在22起案件中,脸书表示其评论员犯了一个错误。19年,它为裁决辩护。在六起案件中,脸书表示内容确实违反了其规则,但其评论员并没有以这种或那种方式对其进行评判,因为用户没有正确标记,或者作者删除了它。在另外两起案件中脸书表示,它没有足够的信息作出回应。

脸书副总裁贾斯汀·奥索夫斯基(Justin Osofsky)在一份声明中表示:“我们对我们所犯的错误深表歉意,这些错误并没有反映出我们想要帮助建立的社区。”。“我们必须做得更好。”他说,Facebook将在2018年将其安全和安保团队(包括内容审查人员和其他员工)的规模扩大一倍,达到20000人,以更好地执行其规则。

他补充说,脸书每周删除约66000条被报道为仇恨言论的帖子,但并非所有攻击性内容都符合仇恨言论的资格。他说:“我们的政策允许内容可能有争议,有时甚至令人厌恶,但它不会越界成为仇恨言论。”。“这可能包括对公众人物、宗教、职业和政治意识形态的批评。”

在一些情况下,Facebook忽略了用户多次提出的删除违反其准则的恶意内容的请求。2012年,至少有十几人以及反诽谤联盟向脸书提出抗议,但对一个名为“犹太仪式谋杀”的页面无效。然而,在ProPublica向Facebook询问该页面后,该页面被删除了。

脸书的指导方针对仇恨攻击的定义非常直白,这意味着那些表达对特定群体的偏见但缺乏明确的敌意或贬低性语言的帖子通常会被搁置,即使他们使用讽刺、嘲笑或嘲笑来传达相同的信息。一位公司发言人表示,由于脸书试图制定跨地区和跨文化一致适用的政策,其指导方针有时比预期的要直截了当。

想想这张照片,一个黑人缺了一颗牙,头上戴着一个肯德基炸鸡桶。标题上写着:“是的,我们需要把钱花在食品券上,这样我们就可以买到油炸鸡了。”

警告:此图像包含冒犯性内容。单击以查看。

ProPublica的读者安吉·约翰逊(Angie Johnson)向脸书(Facebook)报告了这张照片,并被告知它没有违反他们的规定。当我们要求澄清时,脸书表示图片和文本都可以,因为它们没有包含针对受保护组的特定攻击。

相比之下,一位要求不透露姓名的ProPublica读者与我们分享了一篇关于种族的帖子,她在帖子中对美国的种族不平等表示愤怒,并说:“白人是他妈的最多的。”她的评论发表后不久就被脸书网删掉了。

脸书如何处理这样的言论很重要,因为仇恨团体利用世界上最大的社交网络吸引追随者并组织示威。今年夏天,在弗吉尼亚州夏洛茨维尔举行的白人至上主义集会之后,首席执行官马克·扎克伯格(Mark Zuckerberg)承诺将加强对“仇恨犯罪或恐怖主义行为”帖子的监控。然而,一些民权和女权活动家最终以“脸书监狱,“而被南方贫困法律中心列为可憎群体的网页则被装饰成验证复选标记和捐赠按钮.

6月,ProPublica报道了Facebook内容审查人员用来决定哪些组“受到保护”,不受仇恨言论攻击的秘密规则。我们透露规则保护“白人”,但不保护“黑人儿童”因为“年龄”不同于种族和性别,不是一个受保护的类别。(为了回应我们的文章,脸书在其受保护特征中添加了“年龄”类别。)然而,由于子组不受保护,对贫困儿童、美女或印度出租车司机的攻击仍被认为是可以接受的。

脸书将仇恨言论定义为七种“攻击”:呼吁排斥、呼吁暴力、呼吁隔离、有辱人格的泛化、解雇、诅咒和诽谤。

对于想要质疑Facebook裁决的用户,该公司几乎没有提供任何追索权。用户可以就他们不喜欢的决定提供反馈,但没有正式的上诉程序。

在向ProPublica提交帖子的数百名读者中,只有一人表示脸书根据反馈推翻了决定。格莱美奖得主、音乐家詹妮斯·伊恩(Janis Ian)因违反社区标准被禁止在脸书上发帖数天,此前她发布了一张男子后脑勺上纹有纳粹十字记号的照片,尽管照片上的文字敦促人们公开反对纳粹集会。Facebook也删除了该帖子。

警告:此图像包含冒犯性内容。单击以查看。

她的一群粉丝抗议对她的惩罚,一些人联系了他们在硅谷的联系人。不久之后,该公司改变了主意,恢复了帖子和伊恩的访问权限。“我们团队的一名成员不小心删除了你在Facebook上发布的内容,”它给伊恩写道。“这是一个错误,我们对此错误深表歉意。我们已经恢复了内容,您现在应该可以看到了。”

伊恩说:“作为一个使用脸书的人,我感到很沮丧:当你试图找出社区标准是什么时,没有地方可去。每当有争议时,他们都会随意改变。”。“他们让自己变得如此难以接近。”

在没有上诉程序的情况下,一些脸书用户联合起来反复标记相同的攻击性帖子,希望更多的报告最终会到达一个同情的调解人手中。女权主义者安妮·拉姆齐(Annie Ramsey)成立了一个名为“双重标准”(Double Standards)的组织,以动员成员反对关于女性的令人不安的言论。会员们向私人团体发布了一些令人发指的例子,比如这张购物车里的女人的照片,就好像她是商品一样。

警告:此图片包含冒犯性材料。单击以查看。

脸书的规则禁止非人化和欺凌。拉姆齐的团队一再抱怨这张照片,但被告知它没有违反社区标准。

当我们把这个例子带给脸书时,该公司为自己的决定辩护。脸书表示,尽管其规定禁止描述、庆祝或笑话非感官性接触的内容,但这张图片并没有包含足够的上下文来展示非感官性触摸。

拉姆齐的团队更幸运地看到了另一张购物车里一个女人的照片,这张照片的标题是“把我有缺陷的三明治制造商还给Wal-Mart”。该团队反复标记这篇帖子,最终它被删除了。不同的是,这张照片中的女人身上沾满了鲜血,表明她是性侵犯的受害者。该发言人表示,脸书的指导方针要求删除嘲笑强奸、非感官性接触、仇恨犯罪或其他严重身体伤害受害者的图片。

脸书表示,它采取措施防止大规模报道影响决策,这一策略不仅被“双重标准”所使用,也被其他倡导团体所使用。一位脸书官员表示,它使用自动化来识别重复的报告,并限制对单个帖子的评论次数。

拉姆齐的团队成员违反了脸书的规定,他们认为坦率地讨论性别问题。脸书删除了一位会员Charro Sebring的帖子,他说:“男人真的是垃圾。”

脸书为其删除所谓“基于性别的攻击”的决定进行了辩护

警告:此图像包含冒犯性内容。单击以查看。

脸书禁止拉姆齐本人在脸书上发帖30天。她的冒犯行为是在另一个脸书用户的页面上发布了一个睡觉的女人的暗示性图片,以及一系列要求强奸的评论。拉姆齐补充道:“女性不会做出这样的迷因或评论#NameTheProblem”

在ProPublica引起公司注意后,脸书恢复了拉姆齐的帖子。发言人说,这些内容总体上没有违反准则,因为照片上的说明谴责了性暴力。

脸书的即将面世并没有安抚拉姆齐。她说:“他们给了你一个小小的空间,让你对自己的经历提供‘反馈’。”。“我每次都用大写字母给出反馈:你在禁止错误的人。这让我想把头撞到墙上。”

ProPublica最新报道

当前站点 当前页面