关闭 关闭 注释 知识共享 捐赠 电子邮件 添加电子邮件 脸谱网 一款图片分享应用 乳臭虫 脸书Messenger 手机 导航菜单 播客 打印 RSS(RSS) 搜索 安全 推特 WhatsApp软件 YouTube网站

Facebook允许广告商按种族排除用户

脸书的系统允许广告商将黑人、西班牙裔和其他“种族亲和力”排除在广告之外。

想象一下,如果在吉姆·克劳(Jim Crow)时代,一家报纸向广告商提供了只在白人读者的报纸上刊登广告的选择。

这基本上就是Facebook现在所做的。

无处不在的社交网络不仅允许广告商根据用户的兴趣或背景定位用户,还使广告商能够排除它称为“民族认同”的特定群体。联邦法律禁止基于种族、性别和其他敏感因素排除用户的广告。

以下是我们通过公司的广告门户:

我们购买的广告针对的是正在寻找房子的脸书会员,并排除了任何与非裔美国人、亚裔美国人或西班牙裔人有“亲和力”的人。(这是广告本身.)

当我们向一位著名的民权律师展示脸书的种族排斥选项时约翰·雷尔曼,他喘息着说,“这太可怕了。这是非常非法的。这是一种公然违反联邦公平住房法案的行为。”

1968年《公平住房法》使其非法“制作、印刷或发布,或促使他人制作、印刷、发布与住宅销售或租赁有关的任何通知、声明或广告,表明基于种族、肤色、宗教、性别、残疾、家庭地位或民族血统的任何偏好、限制或歧视。”违反者可能面临成千上万的美元罚款.

1964年民权法案还禁止在招聘过程中“印刷或发布表明禁止的偏好、限制、规格或歧视的通知或广告”。

脸书的商业模式是基于允许广告商使用公司收集的大量关于其用户的个人数据,瞄准特定群体,或者显然排除特定群体。脸书的微目标定位对那些希望接触利基受众的广告商尤其有用,比如关注气候变化的摇摆州选民。ProPublica最近提供了一个工具,允许用户查看Facebook如何对其进行分类。我们发现脸书有近50000个独特的用户类别。

脸书表示政策禁止广告商将目标选择权用于歧视、骚扰、诽谤或掠夺性广告行为。

脸书隐私和公共政策经理史蒂夫·萨特菲尔德(Steve Satterfield)表示:“我们坚决反对广告商滥用我们的平台:我们的政策禁止使用我们的目标选项进行歧视,并且要求遵守法律。”。“当我们确定广告违反了我们的政策时,我们会立即采取执法行动。”

Satterfield表示,广告商在测试营销表现时,有能力同时包括和排除群体,这一点很重要。例如,他说,广告商“可能会用英语开展一场将西班牙裔群体排除在外的广告活动,看看该活动与用西班牙语开展广告活动相比表现如何。这是该行业的常见做法。”

他说,脸书在过去两年内开始提供“民族亲和力”类别,作为“多元文化广告”努力的一部分。

Satterfield补充道,“种族亲和力”与种族不同——脸书没有询问其成员。脸书根据会员在脸书上喜欢或参与的页面和帖子为其分配“种族亲和力”。

当我们问到,如果“种族亲和力”不是人口统计学的代表,为什么它会被包括在广告定位工具的“人口统计学”类别中时,脸书回答说,它计划将“种族亲和性”转移到另一个部分。

打破黑匣子

我们生活在一个日益自动化的时代。但随着机器为我们做出更多的决策,理解产生判断的算法变得越来越重要。请参阅系列。

机器偏差

我们正在调查算法的不公正性以及日益影响我们生活的公式。查看我们的所有报道。

脸书拒绝回答有关为什么我们的住房类别广告(不包括少数群体)在我们下订单15分钟后获得批准的问题。

相比之下,考虑到《纽约时报》为防止歧视性住房广告而实施的广告控制。1989年,该报根据《公平住房法案》被成功起诉后,同意审查潜在歧视性内容的广告在接受出版之前。

《泰晤士报》广告可接受性主管Steph Jespersen表示,该公司的员工运行自动化程序,以确保包含歧视性短语的广告被拒绝,例如“仅限白人”和“没有孩子”。

《泰晤士报》的自动化程序还强调了包含潜在歧视性代码词的广告,如“靠近教堂”或“靠近乡村俱乐部”。人们会在这些广告获得批准之前对其进行审查。

杰斯佩森说,《泰晤士报》还拒绝刊登包含过多白人照片的房屋广告。广告中的人物必须代表纽约人口的多样性,如果他们不能代表纽约人口,他说他会打电话给广告商,要求他们提交一个更具多样性的模特阵容的广告。

但是,杰斯佩森说,现在大多数广告商都知道不要提交歧视性广告:“我已经很久没有看到‘白人专用’的广告了。”

澄清,2016年10月28日:我们更新了这个故事,以更清楚地解释我们购买的广告并不是为了住房本身,而是放在脸书的住房类别中。

ProPublica最新报道

当前站点 当前页面