公平定义的这种奇怪冲突不仅仅局限于刑事法律体系中的风险评估算法。同样的悖论也适用于信用评分、保险和雇佣算法。在任何情况下,如果自动决策系统必须在具有不同结果的多个群体之间分配资源或惩罚,那么对公平的不同定义将不可避免地相互排斥。
没有算法可以解决这个问题;这甚至不是算法真的有问题。人类法官是目前做出同样的被迫权衡&历史上一直如此。
但这里有一个算法有改变。虽然法官可能并不总是对他们如何在不同的公平观念之间进行选择保持透明,但人们可以对他们的决定提出质疑。相比之下,由私人公司Northpointe制造的COMPAS是一个无法公开审查或质询的商业秘密。被告不能再质疑其结果,政府机构也失去了审查决策过程的能力。没有更多的公共责任。
那么监管机构应该怎么做呢?这个拟议的2019年算法责任法案加州大学专门研究人工智能和法律的法学教授安德鲁·塞尔布斯特(Andrew Selbst)表示,这是一个良好开端的例子。该法案旨在规范自动决策系统中的偏见,有两个显著特点,可作为未来立法的模板。首先,它将要求公司在“影响评估”中审计其机器学习系统中的偏见和歧视。其次,它没有明确公平的定义。
塞尔布斯特说:“通过影响评估,你可以非常透明地了解公司如何处理公平问题。”。这将公众责任带回了辩论中。因为“公平在不同的背景下意味着不同的东西”,他补充道,避免一个特定的定义允许这种灵活性。
但是否应该首先使用算法来仲裁公平性是一个复杂的问题。普林斯顿大学(Princeton University)副教授鲁哈·本杰明(Ruha Benjamin)在她的书中写道,机器学习算法是根据“通过排斥和歧视历史产生的数据”进行训练的赛后技术风险评估工具也不例外。使用它们或任何用于对人进行排名的算法的更大问题是,它们是减少了现有的不平等,还是使不平等加剧了。
塞尔布斯特建议谨慎行事:“每当你将公平的哲学概念转化为数学表达式时,它们就会失去细微差别、灵活性和可塑性,”他说。“这并不是说这样做的一些效率最终将不值得。我只是怀疑。”
Karen Hao和Jonathan Stray编写的单词和代码。由Emily Luong和Emily Caulfield提供设计建议。尼尔·费斯和吉迪恩·利奇菲尔德编辑。特别感谢拉希达·理查森来自AI Now,穆塔勒·恩科德来自伯克曼·克莱恩中心,以及艾萨克来自DeepMind的审查和咨询。
更正:文章的前一个版本链接了与COMAS不同的风险评估工具的信息。为了避免混淆,已将其删除。