人工智能与公平
最近的论文
平衡的数据集是不够的:估计和减轻深度图像表征中的性别偏见 王天禄,赵洁玉,马克·雅茨卡尔,张开伟,维森特·奥多内斯 ICCV公司 • 2019 在这项工作中,我们提出了一个框架来衡量和减轻视觉识别任务中与受保护变量(如性别)相关的内在偏差。 我们发现,经过训练的模型显著地放大了目标标签与性别的关联,超出了人们从有偏见的数据集中所能预期的。 令人惊讶的是,我们发现,即使数据集是平衡的,使得每个标签与每个性别都是相同的,学习的模型放大了标签和性别之间的关联,就像数据没有被平衡一样! 为了缓解这种情况,我们采用了一种对抗性的方法,从深层神经网络的中间表示中去除与受保护变量对应的不需要的特征,并对其有效性进行了详细分析。 在两个数据集(COCO数据集(objects)和原位数据集(actions)上的实验表明,在保持原始模型的大部分准确性的同时,性别偏见放大率有所降低。 仇恨言语检测中种族偏见的风险 Maarten Sap,达拉斯卡,Saadia Gabriel,Yejin Choi,Noah A.Smith 国际计算语言学协会 • 2019 我们研究了注释者对方言差异的不敏感如何导致自动仇恨言语检测模型中的种族偏见,从而可能扩大对少数民族的伤害。 我们首先在几个广泛使用的仇恨言语数据集中发现了非裔美国人英语(AAE)表面标记与毒性等级之间的意外关联。 然后,我们发现,在这些语料库上训练的模型获得并传播了这些偏见,例如,与其他人相比,AAE推文和自我识别的非裔美国人的推文被贴上攻击性标签的可能性高出两倍。 最后,我们提出方言和种族启动作为减少注释中种族偏见的方法,表明当注释者明确知道AAE tweet的方言时,他们不太可能将tweet标记为攻击性的。 我们是建模任务还是注释器? 自然语言理解数据集中注释者偏差的研究 莫尔·格瓦、约亚夫·戈德伯格、乔纳森·贝兰特 阿尔十四 • 2019 近年来,众包已成为创建自然语言理解数据集的普遍范式。 一种常见的众包做法是招募少量高质量的工人,并让他们大量地产生实例。 只有少数工人产生了大多数例子,这引起了人们对数据多样性的担忧,尤其是当工人自由地生成句子时。 在这篇论文中,我们进行了一系列的实验,表明这些担忧在最近的三个NLP数据集中是明显的。 我们展示了当使用注释器标识符作为特征进行训练时,模型的性能得到了提高,并且模型能够识别出效率最高的注释器。 此外,我们还发现,模型通常不能很好地概括来自注释者的示例,这些注释者对训练集没有贡献。 我们的发现表明,在数据集创建过程中应该监控注释器偏差,并且测试集注释器应该与训练集注释器分离。 机器翻译中的性别偏见评价 加布里埃尔·斯坦诺夫斯基、诺亚·A·史密斯、卢克·泽特莫耶 国际计算语言学协会 • 2019 我们提出了第一个挑战集和评估协议,用于机器翻译中的性别偏见分析。 我们的方法使用了两个最新的共指消解数据集,这些数据集由英语句子组成,这些句子让参与者扮演非定型的性别角色(例如,“医生让护士在手术中帮助她”)。 我们设计了一种基于词法分析的八种具有语法性别的目标语的性别偏见自动评估方法(例如,在“医生”一词中使用女性屈折变化)。 我们的分析表明,四种流行的工业机器翻译系统和两种最新的学术机器翻译模式在所有测试的目标语言中都极易出现性别偏见的翻译错误。 我们的数据和代码是公开的。 绿色人工智能 罗伊·施瓦茨、杰西·道奇、诺亚·A·史密斯、奥伦·埃齐奥尼 阿尔十四 • 2019 深度学习研究所需的计算量每几个月翻一番,导致从2012年到2018年估计增长30万倍[2]。 这些计算的碳足迹惊人地大[38]。 具有讽刺意味的是,深度学习的灵感来源于人脑,而人脑的能量效率非常高。 此外,计算的财务成本可能使来自新兴经济体的学者、学生和研究人员难以从事深度学习研究。 本文主张一种切实可行的解决办法,即将效率作为研究的评价标准,同时考虑准确性和相关措施。 此外,我们建议报告开发、培训和运行模型的财务成本或“价格标签”,以便为研究越来越有效的方法提供基线。 我们的目标是让人工智能更环保、更具包容性——让任何有灵感的大学生都能用笔记本电脑写出高质量的研究论文。 绿色人工智能是艾伦人工智能研究所的一个新兴焦点。