“AI2的核心是我们的目标是为了共同利益推动AI领域的发展,多元化的观点对帮助我们实现这一目标至关重要。多元化、公平和包容是我们工作和文化中不可协商的原则,虽然我们为自己的现状感到骄傲,但我们知道总有更多的工作要做。”
Peter Clark,高级研究总监
在AI2,我们致力于在我们的研究所内营造一个多元化、包容性的环境,并在更广泛的研究社区中鼓励这些价值观。不同的员工群体带来了不同的观点,鼓励针对人工智能研究中的数据和挑战提出新颖的想法和新方法。
AI2有一个多元化、公平和包容理事会,对整个组织的任何团队成员开放。我们定期举行会议,并在多项举措上取得积极进展,以支持DEI的内部和外部发展。
对于AI2团队,我们提供:
AI2的非营利性地位和AI为共同利益的独特使命使我们能够为团队成员提供自主权和支持,以开展与多样性和包容性相关的项目。
AI2最近的研究计算机科学作者的性别趋势作者:Lucy Lu Wang、Gabriel Stanovsky、Luca Weihs和Oren Etzioni,他们强调了计算机科学领域的重要多样性差距。如果目前的趋势继续下去,发表计算机科学研究的作者之间的性别差距在一个多世纪内不会缩小。妇女和其他少数群体的公平代表性对该领域的未来至关重要,我们希望通过公布这些调查结果,并向其他有兴趣帮助促进该领域公平的人提供这一重要数据,来促进对话并激励行动。
Mark Yatskar,一名年轻调查员在AI2,发表了多篇关于机器学习数据集中性别偏见和放大的著作,包括从深层图像表征中消除性别对立作者:王天禄(Tianlu Wang)、赵洁瑜(Jieyu Zhao)、马克·亚茨卡(Mark Yatskar)、张凯伟(Kai-Wei Chang)和维森特·奥多内斯(Vicente Ordonez)。
语义学者团队积极探索对科学文献进行有意义的元分析,最近在他们的研究中量化了临床研究中存在的问题性性别偏见使用自动数据提取量化临床研究中的性别偏见谢尔盖·费尔德曼(Sergey Feldman)、瓦利德·阿马尔(Waleed Ammar)、凯尔·洛(Kyle Lo)、伊利·特雷普曼(Elly Trepman)、马德琳·范·祖伊伦(Madeleine van Zuylen)和奥伦·埃齐奥尼。
应对网络毒性的挑战需要慎重考虑,因为偏见或有害的影响可能很微妙,并且在很大程度上取决于环境。Mosaic和AllenNLP团队成员正在通过以下方式应对这些挑战揭露种族偏见在现有的仇恨语音检测工具中设计新的常识推理任务创建更可靠、更容易理解的有偏见的语言检测工具,并提供解释。