通过群体贡献匹配实现公平

通过群体贡献匹配实现公平

李天林、李志明、李安然、杜梦楠、刘爱珊、青果、孟国柱、杨柳

第三十二届国际人工智能联合会议记录
主轨道。第436-445页。https://doi.org/10.24963/ijcai.2023/49

深度学习模式中的公平问题最近因其重大的社会影响而受到越来越多的关注。尽管不断有人提出减轻不公平的方法,但很少有人研究在标准培训过程中歧视和偏见是如何发展的。在本研究中,我们建议分析每个亚组(即具有相同敏感属性的一组数据)在培训过程中的贡献,以了解这种偏见发展过程的原因。我们提出了一种基于梯度的度量方法来评估训练子组的贡献差异,表明来自不同子组的不平等贡献是这种不公平的一个来源。平衡每个子组贡献的一种方法是通过过采样,这可以确保在每次训练迭代期间从每个子组中抽取相同数量的样本。然而,我们发现即使在样本数量平衡的情况下,每组的贡献仍然是不平等的,从而导致过度抽样策略下的不公平。为了解决上述问题,我们提出了一种简单而有效的组贡献匹配(GCM)方法来匹配每个子组的贡献。我们的实验表明,我们的GCM有效地提高了公平性,并显著优于其他方法。
关键词:
AI道德、信任、公平:ETF:值得信赖的AI
AI道德、信任、公平:ETF:公平和多样性