论文

参见AI2 获奖论文
了解有关AI2的更多信息 持久影响力奖
查看第1-10页,共11页
  • 测量云实例中AI的碳强度

    Jesse Dodge、Taylor Prewitt、Rémi Tachet des Combes、Erika Odmark、Roy Schwartz、Emma Strubell、A.Luccioni、Noah A.Smith、Nicole DeCario、Will BuchananFAccT公司2022 云计算的出现为世界各地的人们提供了前所未有的计算能力,并促成了机器学习等技术的快速增长,而机器学习的计算需求带来了高昂的能源成本和巨大的经济效益…
  • 计算机科学作者中的性别趋势

    Lucy Lu Wang、Gabriel Stanovsky、Luca Weihs、Oren EtzioniCACM公司2021 对计算机科学文献(截至2018年,共有287万篇论文)进行了全面的最新分析,结果表明,如果目前的趋势继续下去,本世纪将无法实现男女作者数量的均等。在我们最…
  • 绿色AI

    罗伊·施瓦茨(Roy Schwartz)、杰西·道奇(Jesse Dodge)、诺亚·史密斯(Noah A.Smith)、奥伦·埃齐奥尼(Oren Etzioni)CACM公司2020 深度学习研究所需的计算量每隔几个月就翻一番,预计从2012年到2018年将增加300000倍[2]。这些计算的碳足迹惊人地大[38]。具有讽刺意味的是,深度学习是…
  • 平衡的数据集还不够:估计和缓解深层图像表征中的性别偏见

    王天禄、赵洁玉、马克·亚茨卡、张开伟、维森特·奥多内斯ICCV公司2019 在这项工作中,我们提出了一个框架来衡量和缓解视觉识别任务中与受保护变量(如性别)相关的内在偏见。我们表明,经过训练的模型显著放大了目标标签与性别的关联…
  • 仇恨言论检测中的种族偏见风险

    Maarten Sap、Dallas Card、Saadia Gabriel、Yejin Choi、Noah A.Smith国际计算语言学协会2019 我们调查解说员对方言差异的不敏感是如何导致种族歧视的仇恨言论自动检测模型中的偏见,可能会放大对少数群体的伤害。我们首先发现表面之间的意外关联…
  • 我们是为任务建模还是为注释器建模?自然语言理解数据集中注释者偏见的调查

    Mor Geva、Yoav Goldberg、Jonathan BerantarXiv公司2019 近年来,众包已成为创建自然语言理解数据集的流行模式。一种常见的众包实践是招募少量高素质的员工,并让他们大量创造榜样。只有…
  • 机器翻译中的性别偏见评估

    加布里埃尔·斯坦诺夫斯基(Gabriel Stanovsky)、诺亚·史密斯(Noah A.Smith)、卢克·泽特莫耶(Luke Zettlemoyer)国际计算语言学协会2019 我们提出了第一个挑战集和评估协议,用于分析机器翻译中的性别偏见。我们的方法使用了由英语句子组成的两个最近的共指消解数据集,将参与者转换为非立体型…
  • 使用自动数据提取量化临床研究中的性别偏见

    谢尔盖·费尔德曼(Sergey Feldman)、瓦利德·阿马尔(Waleed Ammar)、凯尔·洛(Kyle Lo)、伊利·特雷普曼(Elly Trepman)、马德琳·范·祖伦(Madeleine van Zuylen)、奥伦·埃齐奥尼日本汽车制造商协会2019 重要性:临床研究中女性代表性的分析在范围和规模上都很有限。目的:对临床研究中的全球招生性别偏见进行大规模分析。设计、设置和参与者:在这个交叉路口…
  • 猪口红:借词方法掩盖了单词嵌入中的系统性性别偏见,但不能消除它们

    Yoav Goldberg的Hila GonenNAACL公司2019 单词嵌入在NLP中被广泛用于大量任务。研究表明,来自文本语料库的词汇嵌入反映了社会中的性别偏见。这种现象在不同的单词嵌入模型中普遍存在并保持一致,导致严重的…
  • 男性也喜欢购物:利用公司层面的约束减少性别偏见放大

    赵洁瑜、王天禄、马克·亚茨卡、维森特·奥多涅斯、张凯伟EMNLP公司2017 语言越来越多地被用于定义丰富的视觉识别问题,支持来自网络的图像集合。在这些任务中使用结构化预测模型,以利用同现标签和…