CDEI委托的报告呼吁采取措施解决警方使用数据分析时的偏见
文件
细节
调查结果是什么?
-
可能会发生多种类型的潜在偏差。 其中包括基于受保护特征的歧视; 决策过程中真实或明显的偏差; 以及对特定群体中的个人系统性地不公平的结果和过程。 -
算法公平不仅仅是关于数据的。 相反,为了实现公平,需要仔细考虑更广泛的运营、组织和法律背景,以及分析所告知的总体决策过程。 -
缺乏指导。 对于警方使用数据分析的审查、监管和执法,仍然缺乏组织指南或明确的流程。
这些发现是如何确定的?
这项研究的意义是什么?
-
资源分配。 警察部队需要考虑算法偏差会如何影响他们对某些地区进行更严格监管的决定。 -
法律索赔。 与其他不同年龄或性别的人相比,得分“负面”的个人可能会提出歧视主张。 -
对自动化的过度依赖。 警察有可能过度依赖分析工具的使用,损害他们的自由裁量权,并导致他们忽视其他相关因素。