多样性、公平性和包容性

Peter Clark,高级研究总监

“AI2的核心是我们为共同利益推动人工智能领域的发展,而多元化的视角对帮助我们实现这一目标至关重要。多样性、公平性和包容性是我们工作和文化中不可谈判的原则,尽管我们为自己的现状感到骄傲,但我们知道总有更多的工作要做。”

Peter Clark,高级研究总监

我们对多样性的承诺

在AI2,我们致力于在我们的研究所内营造一个多元化、包容性的环境,并在更广泛的研究社区中鼓励这些价值观。不同的员工群体带来了不同的观点,鼓励针对人工智能研究中的数据和挑战提出新颖的想法和新方法。

团队成员获奖
团队成员聚集在外面

支持多元化团队

AI2有一个多样性、公平性和包容性委员会,向组织内的任何团队成员开放。我们定期举行会议,并在多项举措上取得积极进展,以支持DEI的内部和外部发展。

对于AI2团队,我们提供:

  • 公平且员工赋权的审查流程
  • 慷慨的学费和专业会员报销
  • 大力支持需要帮助获得签证担保的员工
  • 商务旅行期间对儿童保育要求的财务支持
  • 生育、收养或抚养的带薪育儿假和产假

AI2还支持更广泛社区中与DEI相关的倡议

Grace Hopper的学生
我们赞助一年一度的Grace Hopper庆祝活动
ADA标志
我们与Ada Developer Academy合作(并从中聘请)
奖学金获得者
我们为女性和代表性不足的少数民族提供年度艾伦AI杰出工程师奖学金

通过研究揭示DEI挑战

AI2的非营利性地位和AI为共同利益的独特使命使我们能够为团队成员提供自主权和支持,以开展与多样性和包容性相关的项目。

CS论文作者性别

计算机科学中的性别趋势

AI2最近的研究计算机科学作者的性别趋势作者:Lucy Lu Wang、Gabriel Stanovsky、Luca Weihs和Oren Etzioni,他们强调了计算机科学领域的重要多样性差距。如果目前的趋势继续下去,发表计算机科学研究的作者之间的性别差距在一个多世纪内不会缩小。妇女和其他少数群体的公平代表性对该领域的未来至关重要,我们希望通过公布这些发现,并向有兴趣帮助促进该领域公平的其他人提供这些重要数据,来促进对话并激励行动。

对抗性性别删除

Mark Yatskar,一名年轻调查员在AI2,发表了多篇关于机器学习数据集中性别偏见和放大的著作,包括从深层图像表征中消除性别对立作者:王天禄(Tianlu Wang)、赵洁瑜(Jieyu Zhao)、马克·亚茨卡(Mark Yatskar)、张凯伟(Kai-Wei Chang)和维森特·奥多内斯(Vicente Ordonez)。

对抗性删除性别的屏幕截图
性别偏见图表

量化性别偏见

语义学者团队积极探索对科学文献进行有意义的元分析,最近在他们的研究中量化了临床研究中存在的问题性性别偏见使用自动数据提取量化临床研究中的性别偏见谢尔盖·费尔德曼(Sergey Feldman)、瓦利德·阿马尔(Waleed Ammar)、凯尔·洛(Kyle Lo)、伊利·特雷普曼(Elly Trepman)、马德琳·范·祖伦(Madeleine van Zuylen)和奥伦·埃齐奥尼(Oren Etzioni)。

反对偏见和有毒语言

应对网络毒性的挑战需要仔细思考,因为偏见或有害的影响可能很微妙,并且在很大程度上取决于背景。马赛克和AllenNLP团队成员正在通过以下两种方式应对这些挑战揭露种族偏见在现有的仇恨语音检测工具中设计新的常识推理任务创建更可靠、更容易理解的有偏见的语言检测工具,并提供解释。

毒性状态分析图解