×

模型透明度和可解释性:对保险业的调查和应用。 (英语) 兹比尔1505.91324

总结:使用模型时,即使效率很高,也必须同时了解数据转换过程的各个层次(上游和下游)。因此,需要增加定义单个数据与算法根据其分析作出的选择之间的关系(例如,推荐一种产品或一种促销优惠,或代表风险的保险费率)。模型用户必须确保模型没有歧视性,并且可以解释其结果。本文介绍了模型解释的重要性,并阐述了模型透明度的概念。在保险上下文中,它具体说明了如何使用一些工具来加强对精算模型的控制,这些模型现在可以利用机器学习。在汽车保险中损失频率估计的一个简单示例中,我们展示了一些可解释性方法的兴趣,以使解释适应目标受众。

理学硕士:

91G05号 精算数学
91A80型 博弈论的应用
68T05型 人工智能中的学习和自适应系统
PDF格式BibTeX公司 XML格式引用

参考文献:

[1] Aas K,Jullum M,Loland A(2019),解释特征依赖时的个体预测:Shapley值的更准确近似值。arXiv公司:1903.10464
[2] 阿达迪,A。;Berrada,M.,《窥视黑匣子:可解释人工智能(XAI)的调查》,IEEE Access,652138-52160(2018)·doi:10.1109/ACCESS.2018.2870052
[3] Alvarez-Melis D,Jaakkola T(2018)关于可解释性方法的稳健性。摘自:2018年ICML机器学习中人类可解释性研讨会论文集。arXiv:1806.08049
[4] Alvarez Melis D,Jaakkola T(2018)通过自我解释神经网络实现强大的可解释性。在:第32届神经信息处理系统会议(NeurIPS 2018)。arXiv:1806.07538
[5] 安德鲁斯,R。;Diederich,J。;Tickle,AB,《从训练好的人工神经网络中提取规则的技术的调查与评论》,基于知识的系统,8,6,3737-389(1995)·doi:10.1016/0950-7051(96)81920-4
[6] Apley DW,Zhu J,(2016)可视化黑箱监督学习模型中预测变量的影响。arXiv公司:1612.08468
[7] Biecek P,Staniak M(2018年),使用实时和故障包解释模型预测。arXiv:1804.01955年
[8] Breiman L,Shang N(1996)《再生树》。加州大学伯克利分校技术报告。
[9] Breiman,L.,随机森林,马赫学习,45,5-32(2001)·Zbl 1007.68152号 ·doi:10.1023/A:1010933404324
[10] Buchner,F。;Wasem,J。;Schillo,S.,回归树识别相关交互作用:这能提高风险调整的预测性能吗?,《健康经济》,26,1,74-85(2017)·doi:10.1002/hec.3277
[11] Caruana R、Lou Y、Gehrke J、Koch P、Sturm M、Elhadad N(2015)《医疗保健智能模型:预测肺炎风险和医院30天再入院》。摘自:第21届ACM SIGKDD知识发现和数据挖掘国际会议论文集,第1721-1730页。https://www.microsoft.com/en-us/research/wpcontent/uploads/2017/06/KDD2015FinalDraftIntelligibleModels4HealthCare_igt143e-caruanaA.pdf
[12] Chen T,Guestrin C(2016)Xgboost:一个可扩展的树木提升系统。CoRRarXiv公司:1603.02754
[13] Craven MW,Shavlik J(1995),提取训练网络的树结构表示。摘自:NIPS’95:第八届神经信息处理系统国际会议记录,第24-30页
[14] Delcaillau D(2019)《保险精算模型的透明度控制》。法国演员协会。https://www.institutdesactuaires.com/se-documenter/memoires-d-精算师-38?id=edbc96af9e65445f1c347bc48eaa1ba2
[15] Doshi-Velez F,Kim B(2017)《走向可解释机器学习的严格科学》。arXiv:1702.08608号
[16] Fisher A(2018)所有模型都是错误的,但许多模型都是有用的:使用模型类Reliance,对于Black-Box、专有或错误指定的预测模型,重要性可变。arXiv:1801.01489
[17] 弗里德曼,J。;Popescu,B.,《通过规则集合进行预测性学习》,《Ann Appl Stat》,第2、3、916-954页(2008年)·Zbl 1149.62051号 ·doi:10.1214/07-AOAS148
[18] Friedman,JH,《贪婪函数近似:梯度提升机》,《Ann Stat》,29,5,1189-1232(2001)·Zbl 1043.62034号 ·doi:10.1214操作系统/1013203451
[19] Goldstein,A。;Kapelner,A。;布莱奇,J。;Pitkin,E.,《黑匣子内窥视:用个人条件期望图可视化统计学习》,《计算图形统计杂志》,24,1,44-65(2015)·doi:10.1080/10618600.2014.907095
[20] Kim,B。;Khanna,R。;O.科耶霍。;Lee,DD;杉山,M。;卢克斯堡,UV;盖恩,I。;加内特,R.,榜样是不够的,学会批评!对可解释性的批评,《神经信息处理系统的进展》,2280-2288(2016),Curran Associates,Inc。
[21] Leroy,G。;普朗切特,F.,Quel niveau de segmentation related?,《保险论坛报》,142,46-47(2009)
[22] Lundberg S,Lee S-I(2017)解释模型预测的统一方法。摘自:NIPS’17:第31届神经信息处理系统国际会议记录,第4768-4777页
[23] Meinshausen,N.,《节点收获》,《Ann Appl Stat》,第4期,第2049-272页(2010年)·Zbl 1220.62084号 ·doi:10.1214/10-AOAS367
[24] Miller,T.,《人工智能的解释:来自社会科学的见解》,Artif Intell,267,1-38(2019)·Zbl 1478.68274号 ·doi:10.1016/j.artint.2018.07.007
[25] Mohseni,S。;Zaei,N。;Ragan,ED,可解释人工智能系统设计和评估的多学科调查和框架,ACM跨交互智能系统,11,3-4,1-45(2020)
[26] Molnar C(2019)可解释机器学习——使黑盒模型可解释的指南。https://christophm.github.io/cinterpretable-ml-book/
[27] Murdoch WJ,Singh C(2019)《可解释机器学习:定义、方法和应用》。arXiv:1901.04592
[28] Noll A、Salzmann R、Wuthrich M(2020)案例研究:法国汽车第三方责任索赔。SSRN 3164764提供
[29] Olden,J。;乔伊,M。;Death,R.,《使用模拟数据量化人工神经网络中变量重要性的方法的准确比较》,Ecol模型,178,3-4,389-397(2004)·doi:10.1016/j.ecolmodel.2004.03.013
[30] Laugel T、Renard X、Lesot M-J、Marsala C、Detyniecki M(2018),定义代孕个体在事后解释中的位置。arXiv:1806.07498
[31] Ribeiro M,Singh S,Guestrin C(2016)“我为什么要相信你?”解释任何分类器的预测,第1135-1144页
[32] Strumbelj E,Kononenko I(2011)可视化和解释黑盒回归模型的通用方法。参加:自适应和自然计算算法国际会议
[33] Tan HF、Song K、Udell M(2019)为什么你要相信我的解释?了解石灰预测中的不确定性。arXiv:1904.12991
[34] Tibshirani,R.,广义加性模型(1990),伦敦:查普曼和霍尔出版社,伦敦·Zbl 0747.62061号
[35] Winter,E.,The Shapley value,《经济学应用博弈论手册》,2025-2054(2002)
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。