各种NLP任务的模型都显示出刻板印象,而问答(QA)模型中的偏见尤其有害,因为最终用户可能会直接使用输出答案。已有数据集可用于评估QA模型中的偏差,而QA模型的偏差缓解技术仍处于探索阶段。在这项工作中,我们提出了BMBI,一种减轻多项选择问答模型偏差的方法。基于这样一种直觉,即如果模型从有偏见的示例中学习,它会倾向于更具偏见,我们通过观察它对另一个实例的影响来衡量查询实例的偏见水平。如果受影响的实例更偏向,则我们推断查询实例是偏向的。然后,我们使用检测到的偏差水平作为优化目标,以形成除原始QA任务之外的多任务学习设置。我们进一步引入了一种新的偏差评估指标,以全面、敏感的方式量化偏差。我们表明,我们的方法可以应用于跨多个偏差类别的多个QA公式。它可以显著降低烧烤数据集中所有9个偏差类别的偏差水平,同时保持可比较的QA准确性。