×

兹马思-数学第一资源

有监督机器学习的可解释性研究。(英语) Zbl 07299933号
小结:人工神经网络等获得的预测具有很高的准确性,但人类通常将模型视为黑匣子。对人类来说,关于决策的见解大多是不透明的。尤其是了解医疗或金融等高度敏感领域的决策是至关重要的。黑匣子背后的决策要求它更透明、更负责、更容易被人类理解。本文介绍了可解释机器学习(SML)的基本定义、不同的原理和方法。我们进行了一项最新的调查,回顾了过去和最近可解释的SML方法,并根据介绍的定义对其进行分类。最后,我们通过一个解释性的案例来说明原则,并讨论未来的重要方向。
理学硕士:
68Txx型 人工智能
PDF格式 BibTeX公司 XML 引用
全文: 内政部
参考文献:
[1] Abdollahi,B.和Nasraoui,O.(2016年)。可解释的限制玻尔兹曼机器协同过滤。arXiv预印本arXiv:1606.07129。
[2] Abdollahi,B.和Nasraoui,O.(2017年)。利用可解释性进行约束矩阵分解。第十一届ACM推荐系统会议纪要(第79-83页)。
[3] ACM(2017年)。关于算法透明度和责任的声明。
[4] Adadi,A.&Berrada,M.(2018年)。窥视黑盒子:可解释人工智能(xai)调查。IEEE访问。
[5] Adler,P.,Falk,C.,Friedler,S.,Rybeck,G.,Scheidegger,C.,Smith,B.和Venkatasubramanian,S.(2016年)。为间接影响审计黑匣子模型。InData Mining(ICDM),2016年IEEE第16届国际会议:IEEE。
[6] Amatriain,X.(2017年)。更多数据还是更好的模型?
[7] Andrews,R.,Diederich,J.和Tickle,A.B.(1995年)。从训练的人工神经网络中提取规则的技术综述和评论。基于知识的系统。
[8] Andrzejak,A.,Langner,F.和Zabala,S.(2013年)。基于决策树合并的分布式数据可解释模型。不可计算智能与数据挖掘(CIDM),2013年IEEE研讨会:IEEE。
[9] Angelov,P.&Soares,E.(2019年)。走向可解释的深层神经网络(xdnn)。arXiv预印本arXiv:1912.02523。
[10] Askham,N.,Cook,D.,Doyle,M.,Fereday,H.,Gibson,M.,Landbeck,U.,Lee,R.,Maynard,C.,Palmerand,G.和Schwarzenbach,J.(2013年)。《数据质量评估的六个主要维度》,DAMA英国工作组(第432-435页)。
[11] Augasta,M.G.和Kathirvalavakumar,T.(2012年)。用于分类问题中规则提取的神经网络逆向工程。神经处理信函。
[12] Baehrens,D.,Schroeter,T.,Harmeling,S.,Kawanabe,M.,Hansen,K.和M.Zoeller,K.-R.(2010年)。如何解释个体分类决策。机器学习研究杂志·124ZB0421249号
[13] Bahdanau,D.,Cho,K.和y。本吉奥(2014年)。神经机器翻译联合学习对齐和翻译。arXiv预印本arXiv:1409.0473。
[14] Balestriero,R.(2017年)。神经决策树。arXiv预印本arXiv:1702.07360。
[15] Barakat,N.&Diederich,J.(2004年)。基于学习的支持向量机规则提取。在2004年第14届国际计算机理论与应用会议上:没有发现。
[16] Barakat,N.H.和Bradley,A.P.(2007年)。从支持向量机中提取规则:一种序列覆盖方法。IEEE知识与数据工程学报。
[17] Barbella,D.,Benzaid,S.,Christensen,J.M.,Jackson,B.,Qin,X.V.,和Musicant,D.(2009年)。理解支持向量机分类通过一个推荐系统类的方法。英德明。
[18] Bastani,O.,Kim,C.和Bastani,H.(2017年)。通过模型提取解释黑匣子模型。arXiv预印本arXiv:1705.08504。
[19] Bengio,Y.和Pearson,J.(2016年)。当人工智能出问题时,我们无法问它为什么。
[20] 伯克森,J.(1953年)。一种基于logistic函数的、在统计学上精确且相对简单的方法,用以估算生物定量反应。美国统计协会杂志·Zbl 0051.11005
[21] Bertsimas,D.,Chang,A.和Rudin,C.(2011年)。有序分类规则:关联分类的离散优化方法。未提交给统计年鉴:Citeseer。
[22] Bhatt,U.,Ravikumar,P.和J.M.F.Moura,J.(2019年)。关于聚集加权特征属性。arXiv预印本arXiv:1901.10040。
[23] Bien,J.和Tibshirani,R.(2009年)。集合覆盖分类:原型向量机。arXiv预印本arXiv:0908.2284。
[24] Bien,J.和Tibshirani,R.(2011年)。可解释分类的原型选择。应用统计学年鉴·Zbl 1234.62096
[25] Biran,O.和Cotton,C.(2017年)。机器学习中的解释与证明:综述。InIJCAI-17可解释人工智能(XAI)研讨会。
[26] Biran,O.和McKeown,K.R.(2017年)。机器学习预测的以人为中心的正当性论证。伊尼卡。
[27] Biswas,S.K.,Chakraborty,M.,Purkaysta,B.,Roy,P.和Thounajam,D.M.(2017年)。使用神经网络从训练数据中提取规则。国际人工智能工具杂志。
[28] Bohanec,M.,Borvstnar,M.K.和Robnik vSikonja,M.(2017年)。解释销售预测中的机器学习模型。专家系统及其应用。
[29] (Bojars和Breg,美国)。语义上相互关联的在线社区。
[30] 博兹,O.(2002年)。从训练好的神经网络中提取决策树。第八届ACM-SIGKDD国际知识发现与数据挖掘会议进展:ACM。
[31] Breiman,L.(2017年)。分类和回归树。劳特利奇。
[32] Brickley,D.和Miller,L.(2020年)。foaf项目。
[33] Burkart,N.,Huber,M.F.和Faller,P.(2019年)。基于规则正则化的深层神经网络强制可解释性。2019年第18届IEEE机器学习与应用国际会议(第700-705页)。
[34] Byrum,J.(2017年)。农业人工智能面临的挑战。
[35] 剑桥(2020),《剑桥心理学词典》,剑桥大学出版社。
[36] Caruana,R.,Lou,Y.,Gehrke,J.,Koch,P.,Sturm,M.和Elhadad,N.(2015年)。医疗保健的可理解模型:预测肺炎风险和医院30天再入院。第21届知识发现与数据挖掘国际会议论文集。
[37] Charniak,E.(1991年)。《没有眼泪的贝叶斯网络》杂志。
[38] Chen,D.,Fraiberger,S.P.,Moakler,R.和Provost,F.(2015年)。在得出关于个人的数据驱动推断时,提高透明度和控制力。2016年ICML机器学习人类可解释性研讨会论文集。
[39] Chen,J.,L'ecu'e,F.,Pan,J.Z.,Horrocks,I.和Chen,H.(2018年)。知识转移学习解释.CoRR,abs/1807.08372。
[40] Chen,Y.,Ouyang,L.,Bao,S.,Li,Q.,Han,L.,Zhang,H.,Zhu,B.,Xu,M.,Liu,J.,Ge,Y.,等(2020年)。一个可解释的机器学习框架,用于精确的重度与非重度covid-19临床类型分类。
[41] Clark,P.和Niblett,T.(1989年)。cn2归纳算法。机器学习。
[42] 克莱兰,S.(2011年)。谷歌的“侵权更新”秘密。
[43] Cohen,W.(1995年)。快速归纳法。1995年《机器学习程序》。爱思唯尔。
[44] Confalonieri,R.,del Prado,F.M.,Agramunt,S.,Malagarriga,D.,Faggion,D.,Weyde,T.和Besold,T.R.(2019年)。一种基于本体论的解释人工神经网络的方法,CoRR,abs/1906.08362。
[45] Cortez,P.和Embrechts,M.J.(2011年)。使用灵敏度分析打开黑盒数据挖掘模型。不可计算智能与数据挖掘(CIDM),2011年IEEE研讨会:IEEE。
[第四十六条] Craven,M.和Shavlik,J.W.(1996年)。提取训练网络的树结构表示。神经信息处理系统的先进性。
[47] Cui,Z.,Chen,W.,He,Y.和Chen,Y.(2015年)。随机森林和人工林的最优行为提取。第21届ACM国际知识发现与数据挖掘会议。
[48] Datta,A.,Sen,S.和Zick,Y.(2016年)。通过定量输入影响的算法透明度:学习系统的理论和实验。不安全与隐私(SP),2016年IEEE研讨会:IEEE。
[49] Doan,A.,Madhavan,J.,Domingos,P.和Halevy,A.(2004年)。本体匹配:机器学习方法,(第385-403页)。斯普林格柏林海德堡:柏林,海德堡。
[50] Doran,D.,Schulz,S.和Besold,T.R.(2017年)。可解释人工智能的真正含义是什么?透视图的新概念。arXiv预印本arXiv:1710.00794。
[51] Doshi Velez,F.和Kim,B.(2017年)。迈向可解释机器学习的严谨科学。arXiv预印本arXiv:1702.08608。
[52] Dosilovi'c,F.K.,Brci'c,M.和Hlupi'c,N.(2018年)。可解释人工智能:一项调查。2018年第41届信息和通信技术、电子和微电子国际公约(MIPRO)。
[53] Dua,D.和Graff,C.(2017年)。UCI机器学习库。
[54] Efron,B.,Hastie,T.,Johnstone,I.,Tibshirani,R.等人(2004年)。最小角度回归。统计年鉴·Zbl 1091.62054
[55] El Bekri,N.,Kling,J.和Huber,M.F.(2019年)。黑盒模型中信任的研究及事后解释。工业和环境应用软计算模型国际研讨会:斯普林格。
[56] Etchells,T.A.和里斯本,P.J.G.(2006年)。训练神经网络的基于正交搜索的规则提取(osre):一种实用有效的方法。神经网络IEEE汇刊。
[57] Europa.eu(2017年)。欧盟官方公报:法规。
[58] F、 包,a。Y、 H.,Liu,J.,Chen,Y.,Li,Q.,Zhang,C.,Han,L.,Zhu,B.,Ge,Y.,Chen,S.,等(2020年)。从血常规检查中对中度covid-19和其他病毒性肺炎进行分类。arXiv预印本arXiv:2005.06546。
[59] 陈国强,陈国强(Liu X,C.,Liu X,J.,2020年)。可解释人工智能技术对covid-19扩散因子的研究。arXiv预印本arXiv:2005.06612。
[60] Fischer,G.,Mastaglio,T.,Reeves,B.和Rieman,J.(1990年)。知识系统中的极简解释。第23届夏威夷系统科学国际年会,第3卷(第309-317页,第3卷)。
[61] Fisher,A.,Rudin,C.和Dominici,F.(2018年)。模型类依赖性:从“罗生门”的角度来看,任何机器学习模型类的可变重要性度量。arXiv预印本arXiv:1801.01489。
[62] Freitas,A.(2014年)。可理解的分类模型:立场文件。ACM SIGKDD探索通讯。
[63] Friedman,J.H.,Popescu,B.E.等人(2008年)。通过规则集合进行预测性学习。《应用统计学年鉴》·Zbl 1149.62051
[64] Friedman,N.,Geiger,D.和Goldszmidt,M.(1997年)。贝叶斯网络分类器。机器学习·Zbl 0892.68077
〔65〕 Fu,L.(1994年)。神经网络规则生成。IEEE系统、人与控制论汇刊。
[66] Fung,G.,Sandilya,S.和Rao,R.B.(2008年)。通过数学规划从线性支持向量机中提取规则。从支持向量机中提取规则。斯普林格·Zbl 1148.68433
[67] Geng,Y.,Chen,J.,Jimenez Ruiz,E.和Chen,H.(2019年)。基于知识图的以人为中心的迁移学习解释[扩展摘要]。
[68] Gilpin,L.H.,Bau,D.,Yuan,B.Z.,Bajwa,A.,Specter,M.和Kagal,L.(2018年)。解释解释:机器学习的可解释性概述。2018年IEEE第五届数据科学与高级分析国际会议(DSAA)。
〔69〕 Gkatzia,D.,Lemon,O.和Rieser,V.(2016年)。自然语言生成用不确定的信息增强人类的决策能力。arXiv预印本arXiv:1606.03254。
[70] Pittein,A.,Kapelkin,A.,Kapelkin,A.,2015年)。在黑匣子里窥视:用个人条件期望图可视化统计学习。计算与图形统计杂志。
[71] Goodman,B.和Flaxman,S.(2016年)。欧盟关于算法决策和“解释权”的规定。InICML机器学习中的人类解释能力研讨会(WHI 2016),纽约,纽约。
[72] Gruber,T.R.等人(1993年)。一种可移植本体规范的翻译方法。知识获取,5(2),199-221。
[73] Gudivada,V.,Apon,A.和Ding,J.(2017年),《大数据和机器学习的数据质量考虑:超越数据清洗和转换》,《国际软件进步杂志》,10(1),1-20。
[74] Guidotti,R.,Monreale,A.,Ruggieri,S.,Pedreschi,D.,Turini,F.和Giannotti,F.(2018a)。黑盒决策系统的局部规则解释。arXiv预印本arXiv:1805.10820。
[75] Guidotti,R.,Monreale,A.,Ruggieri,S.,Turini,F.,Giannotti,F.和Pedreschi,D.(2018b)。黑盒模型解释方法综述。苏尔夫。
[76] Gunning,D.(2017年)。可解释人工智能(xai),国防高级研究计划局(DARPA)。
[77] Gurumoorthy,K.S.,Dhurandhar,A.和Cecchi,G.(2017年)。Protodash:快速解释原型选择。arXiv预印本arXiv:1707.01212。
[78] Hall,P.,Gill,N.,Kurka,M.和Phan,W.(2017a)。h2o无人驾驶ai.h2o.ai的机器学习可解释性。
[79] Hall,P.,Phan,W.和Ambati,S.(2017b)。关于口译机器学习的想法。
[80] Hara,S.和Hayashi,K.(2016年),《使树木合奏可解释》。arXiv预印本arXiv:1606.05390。
[81] Hayashi,Y.(2013年)。基于新集成概念的神经网络规则提取及其理论和历史背景:综述。国际计算智能与应用杂志。
[82] Helfert,M.和Ge,M.(2016年)。智能城市背景下的大数据质量解释模型。第21届国际信息质量大会,西班牙皇家城市。
[83] Hendricks,L.A.,Akata,Z.,Rohrbach,M.,Donahue,J.,Schiele,B.和Darrell,T.(2016年)。生成可视化解释。欧洲计算机视觉会议:斯普林格。
[84] Henelius,A.,Puolam¨aki,K.,Bostr¨om,H.,Asker,L.和Papapetrou,P.(2014年)。黑匣子之一瞥:通过随机化探索分类器。数据挖掘和知识发现。
[85] Henelius,A.,Puolam–aki,K.和Ukkonen,A.(2017年)。通过数据集中的属性交互来解释分类器。2017年机器学习中人的可解释性研讨会。
[86] 赫普,M.(2020年)。良好的关系。
[87] Herman,B.(2017年)。人类对模型可解释性评价的希望与危险。arXiv预印本arXiv:1711.07414。
[88] 希尔顿,D.J.(1990年)。会话过程和因果解释。心理通报。
[89] Hinton,G.&Frost,N.(2017年)。将神经网络提取为软决策树。在AI和ML(CEX)的可理解性和解释性方面,AI*IA。
[90] Hoehndorf,R.(2010年)。什么是上层本体论?本体论。
[91] Hoffman,R.,Mueller,S.,Klein,G.和Litman,J.(2018年)。可解释人工智能的指标:挑战和前景。arXiv预印本arXiv:1812.04608。
[92] 霍尔特,R.C.(1993年)。非常简单的分类规则在最常用的数据集上表现良好。机器学习·Zbl 0850.68278
[93] Holzinger,A.,Kickmeier Rust,M.和M¨uller,H.(2019a年)。康定斯基模式作为机器学习的智商测试。国际机器学习与知识提取跨领域会议(第1-14页)。
[94] Holzinger,A.,Langs,G.,Denk,H.,Zatloukal,K.和M¨uller,H.(2019b年)。人工智能在医学中的因果性和可解释性。威利跨学科评论:数据挖掘和知识发现。
[95] Holzinger,A.,Plass,M.,Holzinger,K.,Crisan,G.C.,Pintea,C.M.和Palade,V.(2017年)。用人在回路中解决np难问题的玻璃盒交互式机器学习方法arXiv预印本arXiv:1708.01104·Zbl 1463.90229
[96] Holzinger,A.,Plass,M.,Kickmeier Rust,M.,Holzinger,K.,Cri¸san,G.C.,Pintea,C.M.和Palade,V.(2019年)。交互式机器学习:算法循环中人类的实验证据。应用智能,49(7),2401-2414。
[97] Hoyt,R.E.,Snider,D.,Thompson,C.和Mantravadi,S.(2016年)。Ibm watson analytics:自动化可视化、描述性和预测性统计。JMIR公共卫生监督,2(2),e157。
[98] Huysmans,J.,Baesens,B.和Vantienen,J.(2006年)。Iter回归规则的预测提取算法。国际数据仓库与知识发现会议:斯普林格。
[99] Huysmans,J.,Dejaeger,K.,Mues,C.,Vantienen,J.和Baesens,B.(2011年)。对决策表、树和基于规则的预测模型可理解性的实证评估。决策支持系统。
[100] Jain,S.和Wallace,B.C.(2019年)。注意不是解释。arXiv预印本arXiv:1902.10186。
[第101条] 江,T.和欧文,A.B.(2002年)。黑盒函数可视化和解释的拟回归。
[102] Johansson,U.,K–onig,R.和Niklasson,L.(2004年)。事实是使用遗传规划从不透明模型中提取规则。炎症会议:迈阿密海滩,佛罗里达州。
[103] Kabra,M.,Robie,A.和Branson,K.(2015年)。通过检查有影响力的邻居来理解分类器错误。IEEE计算机视觉与模式识别会议进展。
[104] Kaggle(2017年)。数据科学与机器学习的现状。
[105] Kamruzzaman,S.(2010年)。一个高效的规则生成器。arXiv预打印arXiv:1009.4988。
[106] Kass,R.和Finin,T.(1988年)。专家系统解释中对用户模型的需求。国际专家系统杂志,1(4)。
[107号] Kim,B.,Khanna,R.和Koyejo,O.O.(2016年)。例子还不够,要学会批评!对可解释性的批评。神经信息处理系统的先进性。
[108] Kim,B.,Rudin,C.和Shah,J.A.(2014年)。贝叶斯案例模型:一种基于实例推理和原型分类的生成方法。神经信息处理系统的先进性。
[109号] Kim,B.,Shah,J.A.和Doshi Velez,F.(2015年)。注意间隙:可解释特征选择和提取的生成方法。神经信息处理系统的先进性。
[110] Kittler,J.(1986年)。特征选择和提取。模式识别和图像处理手册。
[111] Koh,P.W.和Liang,P.(2017年)。通过影响函数理解黑盒预测。arXiv预印本arXiv:1703.04730。
[112] 克莱默,文学硕士(1991年)。利用自联想神经网络进行非线性主成分分析.爱知期刊,37(2),233-243。
[113] Krause,J.,Perer,A.和Ng,K.(2016年)。与预测交互:黑盒机器学习模型的视觉检验。2016年中国计算机系统人因会议进展:ACM。
[114] Lage,I.,Chen,E.,He,J.,Narayanan,M.,Kim,B.,Gershman,S.和Doshi Velez,F.(2019年)。人类解释能力的评估。arXiv预印本arXiv:1902.00006。
[115] Lakkaraju,H.,Bach,S.H.和Leskovec,J.(2016年)。可解释决策集:描述与预测的联合框架。第22届ACM国际知识发现与数据挖掘会议进展。
[公元116年] Lakkaraju,H.,Kamar,E.,Caruana,R.和Leskovec,J.(2017年)。黑匣子模型的可解释和可探索的近似值。arXiv预印本arXiv:1707.01154。
[117] Lakkaraju,H.,Kamar,E.,Caruana,R.和Leskovec,J.(2019年)。黑匣子模型的忠实和可定制的解释。2019年AAAI/ACM人工智能、伦理和社会会议进展。
[118] Lash,M.T.,Lin,Q.,Street,W.N.和Robinson,J.G.(2017年)。一个预算约束的平滑分类器反分类框架。2017年IEEE国际数据挖掘研讨会(ICDMW)。
[119] Laugel,T.,Lesot,M.J.,Marsala,C.,Renard,X.和Detyniecki,M.(2017年)。机器学习中基于比较的可解释性的逆向分类。arXiv预印本arXiv:1712.08443。
[120] Laugel,T.,Renard,X.,Lesot,M.,Marsala,C.和Detyniecki,M.(2018年)。在事后可解释性中定义代理的位置。arXiv预印本arXiv:1806.07498。
〔121〕 L'ecu'e,F.,Abeloos,B.,Anctil,J.,Bergeron,M.,达拉·罗莎,D.,Corbeil Letourneau,S.,Martet,F.,Pommellet,T.,Salvan,L.,Veilleux,S.和Ziaeefard,M.(2019年)。泰雷兹-夏伊平台:机器学习系统的适应性解释-知识图视角。InISWC卫星。
[122号] Lei,J.,G'Sell,M.,Rinaldo,A.,Tibshirani,R.J.和Wasserman,L.(2018年)。回归的无分布预测推断。美国统计协会杂志·Zbl 1402.62155
[123号] Lei,T.,Barzilay,R.和Jaakkola,T.(2016年)。合理化神经预测。arXiv预印本arXiv:1606.04155。
[124] Lent,M.V.,Fisher,W.和Mancuso,M.(2004年)。小型部队战术行为的可解释人工智能系统。全国人工智能会议进展。
[125] Letham,B.,Rudin,C.,McCormick,T.H.和Madigan,D.(2012年)。利用华盛顿大学技术统计系的可解释的贝叶斯统计分析报告·Zbl 1454.62348
[126] Letham,B.,Rudin,C.,McCormick,T.H.和Madigan,D.(2015年)。使用规则和贝叶斯分析的可解释分类器:建立一个更好的中风预测模型。应用统计学年鉴·Zbl 1454.62348
[127号] Lipton,Z.,Kale,D.和Wetzel,R.(2016年)。用rnns.arXiv预印本arXiv:1606.04130对临床时间序列中缺失数据进行建模。
[128] 利普顿,Z.C.(2017年)。医生不会接受的!arXiv预印本arXiv:1711.08037。
[129] Lipton,Z.C.(2018年)。模型可解释性的神话。队列,16(3),31-57。
[130] Looveren,A.V.和Klaise,J.(2019年)。原型指导下的可解释反事实解释。arXiv预印本arXiv:1907.02584。
[131号] Lou,Y.,Caruana,R.和Gehrke,J.(2012年)。可理解的分类和回归模型。第18届ACM-SIGKDD国际知识发现与数据挖掘会议进展:ACM。
[132] Lou,Y.,Caruana,R.,Gehrke,J.和Hooker,G.(2013年)。精确的可理解模型与成对交互。第19届ACM-SIGKDD国际知识发现与数据挖掘会议进展:ACM。
[133] Lu,H.,Setiono,R.和Liu,H.(1995年)。神经规则:数据挖掘的连接主义方法。在瑞士苏黎世举行的第21届VLDB会议上。
[134号] Lundberg,S.M.和Lee,S.(2017年)。解释模型预测的统一方法。在I.Guyon、U.V.Luxburg、S.Bengio、H.Wallach、R.Fergus、S.Vishwanathan和R.Garnett(编辑),神经信息处理系统的进展30(第4765-4774页)。柯兰联合公司。
[135] Luong,M.T.,Pham,H.和Manning,C.D.(2015年)。基于注意力的神经机器翻译的有效方法。arXiv预印本arXiv:1508.04025。
[136] Maedche,A.和Staab,S.(2001年)。语义web的本体学习。IEEE智能系统,16,72-79。
[137] Mahajan,D.,Tan,C.和Sharma,A.(2019年)。在机器学习分类器的反事实解释中保留因果约束。arXiv预印本arXiv:1912.03277。
[138] Malioutov,D.M.,Varshney,K.R.,Emad,A.和Dash,S.(2017年)。利用布尔压缩感知学习可解释分类规则。大数据和小数据的非稀疏数据挖掘。斯普林格。
[139号] Markowska Kaczmar,U.和Chumieja,M.(2004年)。发现神经网络的奥秘。国际混合智能系统杂志·Zbl 1089.68601
[140] 斯诺海姆·马滕斯(Baneem,J.,2007a)著。蚁群优化分类。进化计算IEEE汇刊。
[141] Martens,D.,Baesens,B.和Gestel,T.V.(2009年)。基于主动学习的支持向量机分解规则提取。IEEE知识与数据工程汇刊。
[142号] Martens,D.,Baesens,B.,Gestel,T.V.和Vantienen,J.(2007b)。使用支持向量机规则提取的可理解信用评分模型。欧洲运筹学杂志·Zbl 1278.91177
[143] Martens,D.,Huysmans,J.,Setiono,R.,Vantienen,J.和Baesens,B.(2008年)。支持向量机规则提取:信用评分问题及应用概述·Zbl 1148.68439
[144] Martens,D.和Provost,F.(2014年)。解释数据驱动的文档分类。管理信息系统季刊。
[145] Martens,D.,Vantienen,J.,Verbeke,W.和Baesens,B.(2011年)。从用户角度分析分类模型的性能。决策支持系统。
[146号] Mashayekhi,M.和Gras,R.(2017年)。从决策树集合中提取规则:基于启发式搜索和稀疏群套索方法的新算法。国际信息技术与决策杂志。
[147] 麻省理工学院(2017年)。道德机器。
[148] McGuinness,D.L.,Ding,L.,da Silva,P.和Chang,C.(2007年)。pml2:模块化解释中介语。不精确。
[149号] 米德,A.(1992年)。多维标度方法的发展回顾。皇家统计学会杂志:D辑(统计学家),41(1),27-39。
[150] Meinshausen,N.(2010年)。节点收获。应用统计学年鉴。
[151] Melis,D.A.和Jaakkola,T.(2018年)。利用自解释神经网络实现鲁棒可解释性。神经信息处理系统的先进性。
[152] 米勒,T.(2019年)。人工智能解释:来自社会科学的见解。人工智能,267,1-38·Zbl 07099170
[153] Mohammed,O.,Benlamri,R.和Fong,S.(2012年)。构建医学诊断疾病症状本体:一种整合的方法。在第一届未来一代通信技术国际会议上。
[154] Molnar,C.(2018年),《黑盒子模型制作指南》,网址:https://christophm。github。io/可解释ml手册。
[155] Montavon,G.,Lapuschkin,S.,Binder,A.,Samek,W.和M¨uller,K.R.(2017年)。用深度泰勒分解解释非线性分类决策。模式识别。
[156] Montavon,G.,Samek,W.和M¨uller,K.R.(2018年)。解释和理解深层神经网络的方法。数字信号处理。
[157] Murdoch,J.,Singh,C.,Kumbier,K.,Abbasi Asl,R.和Yu,B.(2019年)。可解释机器学习:定义,方法和应用·Zbl 1431.62266
[158] Navigli,R.和Velardi,P.(2004年)。从文档仓库和专门的网站学习领域本体论。计算语言学,30(2),151-179·Zbl 1234.68373
[159] Ninama,H.(2013年)。数据挖掘中规则提取的集成方法。黄金分割思想。
[160] Odajima,K.,Hayashi,Y.,Tianxia,G.,和Setiono,R.(2008年)。从离散数据生成贪婪规则及其在神经网络规则提取中的应用·217.68ZB1254
[161] Otero,F.E.B.和Freitas,A.(2016年)。改进由蚁群算法发现的分类规则的可解释性:扩展结果。进化计算。
[162] Panigutti,C.,Perotti,A.和Pedreschi,D.(2020年)。xai博士:一种基于本体的黑盒序列数据分类解释方法。《2020年公平、责任和透明度会议的进展》,FAT*'20(第629-639页)。美国纽约:计算机机械协会。
[163] Park,D.H.,Hendricks,L.A.,Akata,Z.,Schiele,B.,Darrell,T.和Rohrbach,M.(2016年)。细心的解释:为决定辩护并指出证据。arXiv预印本arXiv:1612.04757。
[164] Phillips,R.L.,Chang,K.H.和Friedler,S.A.(2017年)。解释性主动学习。arXiv预印本arXiv:1708.00049。
[165] Plumb,G.,Molitor,D.和Talwalkar,A.S.(2018年)。模型不可知监督局部解释。神经信息处理系统的先进性。
[166号] Poursabzi Sangdeh,F.,Goldstein,D.G.,Hofman,J.M.,Vaughan,J.W.和Wallach,H.(2018年)。操纵和测量模型可解释性。arXiv预印本arXiv:1802.07810。
[167] Poyiadzi,R.,Sokol,K.,Santos Rodriguez,R.,De Bie,T.和Flach,P.(2020年)。面对面:可行和可操作的反事实解释。AAAI/ACM人工智能、伦理与社会会议(第344-350页)。
[168号] Publio,G.C.,Esteves,D.,Lawrynowicz,A.,ce Panov,P.,Soldatova,L.,Soru,T.,Vanschoren,J.和Zafar,H.(2018年)。Ml模式:用模式和本体论揭示机器学习的语义。
[169] 昆兰,J.R.(1986年)。决策树的归纳。机器学习。
[170] 昆兰,J.R.(1996年)。装袋、增压和c4.5。IAAI/IAI第1卷。
[171] Quinlan,J.R.(2014),C4.5:机器学习程序。爱思唯尔。
[172] Raimond,Y.,Abdallah,S.,Sandler,M.和Giasson,F.(2007年)。音乐本体论。第八届国际音乐信息检索会议论文集。
[173] 雷蒙德,Y.,阿卜杜拉,S.,桑德勒,M.和贾森,F.(2020年)。音乐本体论。
[174] Rezaul,K.,D∮APhmen,T.,Rebholz Schhumann,D.,Decker,S.,Cochez,M.和Beyan,O.(2020年)。Deepcovidexplainer:可解释的基于胸部x射线图像的covid-19预测。arXiv,(pp.arXiv-2004)。
[175] Ribeiro,M.T.,Singh,S.和Guestrin,C.(2016a)。机器学习的模型不可知解释性。arXiv预印本arXiv:1606.05386。
[176] Ribeiro,M.T.,Singh,S.和Guestrin,C.(2016b)。我为什么要相信你?:解释任何分类器的预测。第22届ACM国际知识发现与数据挖掘会议进展。
[177] Ribeiro,M.T.,Singh,S.和Guestrin,C.(2016c)。我为什么要相信你?:解释任何分类器的预测。第22届ACM国际知识发现与数据挖掘会议进展。
[178] Ribeiro,M.T.,Singh,S.和Guestrin,C.(2018年)。锚:高精度模型不可知的解释。第三十二届人工智能会议(AAAI)的进展。
[179] Robnik,M.&Kononenko,I.(2008年)。解释单个实例的分类。IEEE知识与数据工程汇刊。
[180度] Robnik vSikonja,M.和Kononeko,I.(2008年)。解释单个实例的分类。知识与数据工程IEEE汇刊。
[181号] Rudin,C.(2018年)。请停止解释高风险决策的黑盒模型。
[182号] R¨uping,S.(2005年)。学习当地模式。局部模式检测(第153-170页)。
[183] R¨uping,S.(2006年)。学习可解释模型。多特蒙德大学博士论文。
[184] Rush,A.M.,Chopra,S.和Weston,J.(2015年)。arXiv.006ARXIV.006神经性注意模型。
[185] Russell,C.(2019年)。有效地寻找各种连贯的解释。公平、问责和透明度会议进展情况(第20-28页)。
[186] Saabas,A.(2015年)。树型对讲机。https://github.com/andosa/treeinterpreter。
[187] Samek,W.,Montavon,G.,Vedaldi,A.,Hansen,L.K.和M¨uller,K.编辑(2019年)。可解释人工智能:解释、解释和可视化深度学习。斯普林格。
[188] Samek,W.,Wiegand,T.和M¨uller,K.R.(2017年)。可解释人工智能:理解、可视化和解释深度学习模型。arXiv预印本arXiv:1708.08296。
[189] Sarker,M.K.,Xie,N.,Doran,D.,Raymer,M.和Hitzler,P.(2017年)。用语义网技术解释训练过的神经网络:第一步。
[190号] Schaaf,N.和Huber,M.F.(2019年)。通过l1正交正则化增强基于决策树的深层神经网络解释。arXiv预印本arXiv:1904.05394。
[191] Schetinin,V.,Fieldsend,J.E.,Partridge,D.,Coats,T.J.,Krzanowski,W.J.,Everson,R.M.,Bailey,T.C.和Hernandez,A.(2007年)。临床应用中贝叶斯决策树集合的自信解释。生物医学信息技术IEEE汇刊·Zbl 1269.91034
[192号] Schmidt,P.&Biessmann,F.(2019年)。量化机器学习系统的可解释性和信任度。arXiv预印本arXiv:1901.08558。
[193] Schmitz,G.,Aldrich,C.和Gouws,F.S.(1999年)。Ann-dt:从人工神经网络中提取决策树的算法。神经网络IEEE汇刊。
[194号] 瓦兰塔克斯韦尔,巴兰塔克斯韦尔,巴兰塔克斯维尔,2016年)。你为什么这么说?深度网络通过基于梯度的本地化进行视觉解释。arXiv预印本arXiv:1610.02391。
[195] Sestito,S.和Dillon,T.(1992年)。具有连续值属性的规则的自动知识获取。1992年第十二届专家系统及其应用国际会议进展·Zbl 0850.68301
[196] Sethi,K.K.,Mishra,D.K.和Mishra,B.(2012年)。规则提取技术的扩展分类法和kdruleex的评估。国际计算机应用杂志。
[197] Setiono,R.,Azcarraga,A.和Hayashi,Y.(2014年)。用增广离散输入训练神经网络的Mofn规则提取。内部网络(IJCNN),2014年国际联席会议:IEEE。
[198] Setiono,R.,Baesens,B.和Mues,C.(2008年)。具有混合属性数据的递归神经网络规则提取。神经网络上的IEEE事务处理。
[199] Setiono,R.和Liu,H.(1997年)。神经网络:从神经网络到倾斜决策规则。神经计算。
[200] Shapley,L.S.(1951年)。关于n人博弈的注记2:n人博弈的价值。技术报告,美国空军,兰德项目。
[201] Shrikumar,A.,Greenside,P.,Shcherbina,A.和Kundaje,A.(2016年)。不仅仅是一个黑匣子:通过传播激活差异来学习重要特性。第33届机器学习国际会议。
[202] Si,Z.和Zhu,S.C.(2013年)。用于对象识别和检测的学习和/或模板。IEEE模式分析与机器智能汇刊。
[203] Smilkov,D.,Thorat,N.,Kim,B.,Vi’egas,F.和Wattenberg,M.(2017年)。Smoothgrad:通过添加噪声来消除噪声。arXiv预印本arXiv:1706.03825。
[204] Strumbelj,E.,Bosni'c,Z.,Kononeko,I.,Zakotnik,B.和Kuhar,c.(2010年)。预测模型的解释和可靠性:乳腺癌复发病例。知识和信息系统。
[205] Strumbelj,E.和Kononenko,I.(2014年)。预测和个人信息系统解释模型。
[206] Su,G.,Wei,D.,Varshney,K.R.和Malioutov,D.M.(2015年)。用于分类的可解释的两级布尔规则学习。arXiv预印本arXiv:1511.07361。
[207] Su,G.,Wei,D.,Varshney,K.R.和Malioutov,D.M.(2016年)。学习稀疏二级布尔规则。2016年IEEE第26届信号处理机器学习国际研讨会:IEEE。
[208号] Subianto,M.和Siebes,A.(2007年)。了解离散分类器与基因预测的案例研究。2007年第七届IEEE数据挖掘国际会议(第661-666页)。
[209] Sundararajan,M.,Taly,A.和Yan,Q.(2016年)。反事实的梯度。arXiv预印本arXiv:1611.02639。
[210] Swartout,W.,Paris,C.和Moore,J.(1991年)。知识系统中的解释:可解释专家系统的设计。IEEE专家,6(3),58-64。
[211] Taha,I.&Ghosh,J.(1996年)。从前馈网络中提取规则的三种技术。人工神经网络智能工程系统。
[212] Tibshirani,R.(1996年)。通过套索进行回归收缩和选择。皇家统计学会杂志:B系列(方法论)·Zbl 0850.62538
[213] Tjoa,E.和Guan,C.(2019年)。可解释人工智能(xai)综述:面向医学的xai.arXiv预印本arXiv:1907.07374。
[214] Tolomei,G.,Silvestri,F.,Haines,A.和Lalmas,M.(2017年)。基于树的集合的可解释预测通过可操作的特征调整。第23届国际数据挖掘与发现会议。
[215] Tsymbal,A.,Zillner,S.和Huber,M.(2007年)。本体支持的生物医学机器学习与决策支持。国际生命科学数据集成会议,第4544卷(第156-171页)。
[216] 特纳,R.(2016年)。模型解释系统。2016年IEEE第26届信号处理机器学习国际研讨会。
[217] Tversky,A.&Kahneman,D.(1974年)。不确定性下的判断:启发式和偏差。科学。
[218] Tversky,A.&Kahneman,D.(1981年)。决策框架和选择心理。科学·Zbl 1225.91017
[219] Ustun,B.和Rudin,C.(2014年)。可解释线性分类的方法和模型。arXiv预印本arXiv:1405.4047。
[220] Ustun,B.和Rudin,C.(2016年)。优化医疗评分系统的超解析线性整数模型。机器学习·Zbl 1406.62144
[221] Ustun,B.和Rudin,C.(2017年)。优化风险评分。第23届ACM国际知识发现与数据挖掘会议进展:ACM·兹布1440.68242
[222号] van der Maaten,L.和Hinton,G.(2008年)。使用t-sne可视化数据。机器学习研究杂志,9(11月),2579-2605·Zbl 1225.68219
[223] Vedantam,R.,Bengio,S.,Murphy,K.,Parikh,D.和Chechik,G.(2017年)。上下文无关监督的上下文感知字幕。IEEE计算机视觉与模式识别会议进展。
[224] Verbeke,W.,Martens,D.,Mues,C.和Baesens,B.(2011年)。利用先进的规则归纳技术建立可理解的客户流失预测模型。专家系统及其应用。
[225] 2017年,Voosen。教师如何打开深度学习的黑匣子。科学杂志。
[226] W3C(2012a)。良好本体论。W3C推荐。https://www.w3.org/wiki/Good本体论。
[227号] W3C(2012b).owl2web本体语言文档概述(第二版)。W3C推荐,W3C。https://www.w3.org/TR/2012/REC-owl2-overview-20121211/。
[228] W3C(2014)。资源描述框架(RDF)。W3C建议,W3C。https://www.w3.org/RDF/。
[229] Wachter,S.,Mittelstadt,B.和Russell,C.(2018年)。不打开黑匣子的反事实解释:自动决策和gdpr。哈佛法律与技术杂志,31(2)。
[230] Wang,F.和Rudin,C.(2014年)。下降规则列表。arXiv预印本arXiv:1411.5899。
[231] Wang,F.和Rudin,C.(2015年)。不断下降的规则列表。第18届国际人工智能与统计会议(AISTATS)。
[232] Wang,J.,Fujimaki,R.和Motohashi,Y.(2015a)。用可解释性换取准确性:斜树稀疏加法模型。第21届ACM-SIGKDD国际知识发现与数据挖掘会议进展:ACM。
[233] Wang,R.Y.和Strong,D.M.(1996年)。数据的准确性对消费者意味着什么。
[234] Wang,T.,Rudin,C.,Doshi Velez,F.,Liu,Y.,Klampfl,E.和MacNeille,P.(2015b)。Or的和表示可解释分类,并应用于上下文感知推荐系统。arXiv预印本arXiv:1504.07614。
[235] Wang,T.,Rudin,C.,Velez Doshi,F.,Liu,Y.,Klampfl,E.和MacNeille,P.(2016年)。可解释分类的贝叶斯规则集。InData Mining(ICDM),2016年IEEE第16届国际会议:IEEE·兹布1434.68467
[236] 韦纳,J.(1980年)。解释其推理的系统。人工智能,15(1-2),19-48。
[237] Weller,A.(2017年)。透明度的挑战。arXiv预印本arXiv:1708.01870。
[238] West,J.,Ventura,D.和Warnick,S.(2007年)。春季研究报告:感应传输的理论基础。检索日期:2007-08-05。
[239] Wiegerffe,S.&Pinter,Y.(2019年)。注意不是解释。arXiv预印本arXiv:1908.04626。
[240] Wold,S.,Esbense,K.和Geladi,P.(1987年)。主成分分析。化学计量学与智能实验室系统,2(1-3),37-52。
[241] Wong,W.,Liu,W.和Bennamoun,M.(2011年)。从文本中学习本体:回顾和展望未来。ACM计算调查-CSUR,44,1-36·Zbl 1293.68243
[242号] Wu,M.,Hughes,M.C.,Parbhoo,S.,Zazzi,M.,Roth,V.和Doshi Velez,F.(2018年)。超越稀疏:可解释性的深层模型的树正则化。第二届AAAI人工智能会议。
[243] Xu,K.,Ba,J.,Kiros,R.,Cho,K.,Courville,A.,Salakhudinov,R.,Zemel,R.和Bengio,Y.(2015a)。展示、出席和讲述:用视觉注意力生成神经图像。国际机器学习会议。
[244] Xu,N.,Jiangping,W.,Qi,G.,Huang,T.和Lin,W.(2015b)。图像分类的本体论随机森林。国际信息检索研究杂志,5,61-74。
[245] Yang,C.,Rangarajan,A.和Ranka,S.(2018a)。通过递归分区进行全局模型解释。arXiv预印本arXiv:1802.04253。
[246] (Rudm,C.,Yang,C.,2016年)。可伸缩的贝叶斯规则列表。未出版。
[247] Yang,Y.,Morillo,I.G.和Hospedales,T.M.(2018b)。深层神经决策树。arXiv预印本arXiv:1806.06988。
[248] Yin,M.,Vaughan,J.W.和Wallach,H.(2019年)。了解机器学习模型中准确性对信任的影响。2019年中国计算机系统人因会议进展:ACM。
[249] Yin,X.和Han,J.(2003年)。Cpar:基于预测关联规则的分类。2003年暹罗国际数据挖掘会议论文集:暹罗。
[250] Zhang,Y.和Chen,X.(2018年)。可解释性建议:调查与新视角。arXiv预印本arXiv:1804.11192。
[251] Zhao,X.,Wu,Y.,Lee,D.L.,和Cui,W.(2019年)。iforest:通过可视化分析解释随机森林。IEEE可视化和计算机图形事务。
[252] 周志华、陈世福、陈志强(2000)。一种基于统计的神经网络优先规则提取方法。国际电气与电子工程师协会。
[253] 周志华、蒋永英、陈世福(2003)。从训练过的神经网络集合中提取符号规则。人工智能通讯·Zbl 1102.68609
[254] 齐克,E。
此参考列表基于出版商或数字数学图书馆提供的信息。它的项被试探性地匹配到zbMATH标识符,并且可能包含数据转换错误。它试图尽可能准确地反映原始论文中列出的参考文献,而不要求匹配的完整性或精确性。