计算机科学>机器学习
标题: 基于Wasserstein距离的对抗性权重调整方法
摘要: 当机器学习模型进行自动决策时,样本群体中不同群体的代表性不平等会导致对少数群体的歧视。 为了解决这些问题,公平软件机器学习联合优化了两个(或更多)指标,旨在提高预测效率和降低不公平性。 然而,数据中固有的少数民族表达不足使得对亚群体的不同处理不那么引人注目,并且在学习过程中很难处理。 在本文中,我们提出了一种新的对抗性重加权方法来解决这种表示偏差。 为了平衡大多数群体和少数群体之间的数据分布,我们的方法不再强调大多数群体的样本。 为了最大限度地减少经验风险,我们的方法更喜欢通过Wasserstein距离评估的与少数群体接近的多数群体的样本。 我们的理论分析表明了我们的对抗性权重调整方法的有效性。 实验表明,我们的方法在不牺牲分类精度的情况下减少了偏差,在图像和表格基准数据集上表现优于相关的最新方法。