优化的评分系统:医疗保健和刑事司法中机器学习的信任

@第{Rudin2018OptimizedSS条,title={优化评分系统:为医疗保健和刑事司法争取机器学习的信任},作者={辛西娅·鲁丁和伯克·乌斯顿},日志={Interfaces},年份={2018年},体积={48},页码={449-466},网址={https://api.semanticscholar.org/CorpusID:42993320}}
作者开发并实现了透明的机器学习模型,对黑盒机器学习模型在医疗和刑事司法应用中的使用提出了质疑。

本文图表

请停止解释高风险决策的黑盒模型

还有一条路要走,那就是设计内在可解释的模型,而不是试图解释黑箱模型,因为黑箱模型可能会延续不良做法,并可能对社会造成灾难性伤害。

科学机器学习中外推的可解释模型

平均而言,简单线性模型在外推任务上的表现与黑箱机器学习模型相当。

停止解释高风险决策的黑箱机器学习模型,转而使用可解释模型

该观点澄清了解释黑箱和使用固有可解释模型之间的鸿沟,概述了在高风险决策中应避免可解释黑箱的几个关键原因,确定了可解释机器学习的挑战,并提供了几个示例应用程序,其中可解释模型可能会取代刑事司法、医疗保健和计算机视觉中的黑盒模型。

构建可解释的机器学习分类器预测脑肿瘤存活率

该项目使用手工处理的脑瘤数据集,将可解释规则列表模型与许多流行的机器学习方法进行比较,以进行生存预测,并表明可解释规则表模型能够与不透明的机器学习模型一样预测生存,并具有可解释性的额外优势。

特征离散化对基于可解释评分的机器学习模型分类性能的影响

事实证明,基于RiskSLIM的评分模型除了具有可解释性外,在分类指标方面的表现至少与最先进的ML模型(如梯度提升)相当。

机器学习和风险评估:随机森林在预测性累犯方面的表现并不优于Logistic回归

用随机森林算法对N=511名被判犯有性犯罪的成年男性样本进行的常规logistic回归分析表明,预测性能并不优越,可解释的ML方法也没有指向任何稳健的非线性效应。

用于脑肿瘤生存预测的可解释机器学习分类器

本文使用一个新的脑瘤数据集,将两种可解释的规则列表模型与流行的机器学习方法进行比较,以预测脑瘤生存率,并表明规则列表仅略优于黑盒模型。

学习多类分类的最优公平评分系统

针对一般的多类分类设置,使用MILP技术在稀疏性和公平性约束下生成内在可解释的评分系统,本文将SLIM框架推广到学习二进制分类的最优评分系统。

机器学习可解释性:方法和度量综述

本文综述了机器学习可解释性研究领域的现状,重点介绍了社会影响以及所开发的方法和指标。

学习小儿阑尾炎的医疗风险评分

本研究调查了使用风险超解析线性整数模型(风险SLIM)学习数据驱动的风险评分,以预测疑似阑尾炎儿童患者的诊断、管理和并发症,该数据集由来自三级护理医院的430名儿童组成。
...

使用Logit为日益重要的风险预测工作找到合适的工具有什么逻辑吗

讨论统计技术的相对优点,特别是随机森林、随机梯度增强和逻辑回归。语言:英语

大数据还是小数据:预测分析将统治世界。

使用机器学习技术在睡眠实验室人群中开发OSA 10筛查算法,并测试OSA高危患者的方法特征是否合适。

使用规则和贝叶斯分析的可解释分类器:构建更好的笔画预测模型

引入了一种称为贝叶斯规则列表的生成模型,该模型在可能的决策列表上产生一个后验分布,该决策列表采用新的先验结构来鼓励稀疏性,并且预测精度与当前机器学习中的顶级预测算法相当。

制定和验证急诊部胸痛评分评估和2小时加速诊断方案

推导并验证了胸痛评分和加速诊断方案,该方案可以安全地增加适合提前出院的患者比例,并节省时间和成本。

APACHE II:疾病严重程度分类系统。

本文介绍了APACHE II的形式和验证结果,该系统是一种疾病严重程度分类系统,使用基于12个常规生理测量值、年龄和以往健康状况的初始值的分数。

优化的风险评分

本文形成了一种原则性的方法来学习针对特征选择、整数系数和操作约束进行了充分优化的风险评分,并提出了一种新的割平面算法来有效地恢复其最优解。

精神疾病诊断和统计手册

鉴于最近对精神病谱系障碍中运动异常的关注(例如

大数据和预测分析:重新校准预期

随着电子健康记录(EHR)在医院、卫生系统和医生实践中的常规使用,过去几年医疗保健数据的可用性快速增长

非常简单的分类规则在大多数常用数据集上表现良好

在所研究的大多数数据集上,基于单个属性对示例进行分类的最简单规则与大多数机器学习系统诱导的规则一样准确。

预测犯罪行为的统计程序

本文解决了以下两种说法之间的明显矛盾:对于刑事司法应用,预测准确度大致相同,而根据数据自适应进行机器学习等程序将提高预测准确度。
...