计算机科学>计算机视觉和模式识别
职务: 性别-中性预训练视觉和语言模型中的偏见和公平性评估
摘要: 众所周知,预训练机器学习模型会使数据中现有的偏见永久化甚至扩大,从而导致不公平的结果,最终影响用户体验。 因此,了解这些偏见背后的机制至关重要,以确保模型性能不会导致对某些群体或人群的歧视行为。 在这项工作中,我们将性别偏见定义为我们的案例研究。 我们量化了三类视觉和语言模型在训练前和微调后的偏差放大。 我们调查了两个学习阶段之间的联系(如果有的话),并评估了偏差放大如何反映模型性能。 总的来说,我们发现预处理和微调后的偏置放大是独立的。 然后,我们检验了持续的预训练对性别中立数据的影响,发现这减少了群体差异,即促进了VQAv2和检索任务的公平性,而不会显著影响任务性能。