提供算法公平性度量的计算、可视化和比较。公平机器学习是一个新兴的主题,其首要目标是批判性评估ML算法是否会强化现有的社会偏见。不公平算法可以传播这种偏见,并产生对各种敏感个人群体(定义为性别、性别、种族、宗教、收入、社会经济地位、身体或精神残疾)具有不同影响的预测。公平算法有一个基础,即这些组应该被类似地对待或具有类似的预测结果。公平性R包提供了人口分组中常用和不太常用的公平性度量的计算和比较。Calders和Verwer(2010)描述了这些方法<文件编号:10.1007/s10618-010-0190-x>,Chouldechova(2017)<doi:10.1089/big.2016.0047>,Feldman等人(2015)<doi:10.1145/2783258.2783311>,Friedler等人(2018)<数字对象标识代码:10.1145/3287560.3287589>和Zafar等人(2017年)<doi:10.1145/3038912.3052660>. 该软件包还提供了方便的可视化功能,以帮助理解公平性指标。
请使用规范形式https://CRAN.R-project.org/package=公平链接到此页面。