×

兹马思-数学第一资源

分类树和回归树的数学优化。(英语) Zbl 1467.90021
摘要:分类树和回归树,以及它们的变体,是机器学习中现成的方法。在这篇论文中,我们回顾了最近在连续优化和混合整数线性优化范例中发展新的公式在这一研究领域的贡献。我们从决策变量的性质和所需的约束条件以及所提出的优化算法等方面进行了比较。我们将说明这些强大的公式如何增强树模型的灵活性,使之更适合于包含诸如成本敏感度、可解释性和公平性等所需的属性,以及处理复杂的数据,如函数数据。
理学硕士:
90摄氏度 混合整数规划
90立方厘米 非线性规划
PDF格式 BibTeX公司 XML 引用
全文: 内政部
参考文献:
[1] 阿盖伊,S。;阿齐兹,乔丹州;Vayanos,P.,学习非歧视性决策的最优和公平决策树,Proc AAAI Conf Artir Intell,331418-1426(2019年)
[2] Aghaei S,Gomez A,Vayanos P(2020),学习最优分类树:强最大流公式。arXiv:2002.09142
[3] Aglin G,Nijssen S,Schaus P(2020),使用缓存分支和边界搜索学习最优决策树。在:第三十四届AAAI人工智能会议
[4] 阿胡贾,RK;马格纳蒂,TL;《网络流:理论、算法和应用》(1993),新泽西州:普伦蒂斯霍尔,新泽西州
[5] 阿尔特曼,A。;托洛伊,L。;桑德,O。;Lengauer,T.,《排列重要性:校正的特征重要性度量》,生物信息学,26,10,1340-1347(2010)
[6] Aouad A、Elmachtoub AN、Ferreira KJ、McNellis R(2019)市场细分树。arXiv:1906.01174
[7] 阿佩米迪斯A。;诗篇。;Moguerza,JM,统计过程监控中的机器学习核心方法综述,计算机工业,142106376(2020)
[8] 阿萨那索普洛斯,G。;亨德曼,RJ;库伦茨,N。;Petropoulos,F.,时间层次预测,Eur J Oper Res,262,1,60-74(2017年)·Zbl 1403.62154
[9] 贝森,B。;塞蒂奥诺,R。;穆斯,C。;Vantienen,J.,使用神经网络规则提取和决策表进行信用风险评估,管理科学期刊,49,3,312-329(2003)·Zbl 1232.91684
[10] Balakrishnan S,Madigan D(2006)功能变量决策树。第六届数据挖掘国际会议(ICDM'06),第798-802页
[11] 巴罗卡斯,S。;Selbst,AD,《大数据的不同影响》,加州法律修订版,104671(2016年)
[12] Barredo Arrieta,Díaz Rodríguez N,Del Ser J,Bennetot A,Tabik S,Barbado A,GarcíA G,Gil-López S,Molina D,Benjamins R,Chatila R,Herrera F(2020)可解释人工智能(XAI):概念、分类法、面向负责任人工智能的机遇和挑战。《信息融合》58:82-115
[13] Barros RC,Basgalupp MP,De Carvalho ACPLF,Freitas AA(2011)《决策树归纳的进化算法综述》。IEEE Trans-Syst Man Cybern第C部分(应用版本)42(3):291-312
[14] 丹麦巴罗;Crone,SF,《时间序列预测组合的Adaboost算法比较》,Int J forecast,32,4,1103-1119(2016)
[15] Bénard C,Biau G,Da Veiga S,Scornet E(2019)SIRUS:使随机森林可解释。arXiv:1908.06852·Zbl 1458.62126号
[16] Bénard C,Biau G,Da Veiga S,Scornet E(2020)通过规则提取可解释的随机森林。arXiv:2004.14841·Zbl 1458.62126号
[17] 贝尼特斯佩尼亚。;博格托夫特,P。;Romero Morales,D.,《数据包络分析中的特征选择:数学优化方法》,Omega,96102068(2020)
[18] Benítez Peña S、Carrizosa E、Guerrero V、Jiménez Gamero MD、Martín-Barragán B、Molero-Río C、Ramírez Cobo P、Romero Morales D、Sillero Denameil MR(2020b)关于稀疏集合方法的应用:对covid-19进化的短期预测。西班牙塞维利亚IMUS技术报告。https://www.researchgate.net/publication/341608874_On_Sparse_Ensement_方法_An_应用程序_短期_预测_COVID-19的演化_
[19] Bennett KP(1992)通过线性规划建立决策树。美国威斯康星大学计算机科学系,并行优化中心
[20] 贝内特·KP,蓝J(1996)最优决策树。在:伦斯勒理工学院数学报告,第214页
[21] 贝内特,KP;李国平,李国平,等.两个线性不可分集的鲁棒线性规划判别,优化方法软件,1,23-24(1992)
[22] 贝尔西马斯。;Dunn,J.,最优分类树,Mach Learn,106,7,1039-1082(2017年)·Zbl 1455.68159
[23] 贝尔西马斯。;邓恩,J。;Mundru,N.,最优处方树,通知J Optim,1,2,164-183(2019年)
[24] 贝尔西马斯。;奥黑尔,A。;雷耶,S。;Silberholz,J.,《癌症联合化疗方案设计的分析方法》,管理科学,62,51511-1531(2016)
[25] 贝尔西马斯。;Shioda,R.,《通过整数优化进行分类和回归》,Oper Res,55,252-271(2007)·ZB907.116593升
[26] 彪,G。;德夫罗耶,L。;Lugosi,G.,随机森林和其他平均分类器的一致性,J Mach Learn Res,9,2015-2033(2008)·Zbl 1225.62081
[27] 彪,G。;Scornet,E.,随机森林导游,测试,25,2197-227(2016)·Zbl 1402.62133
[28] Birbil SI,Edali M,Yüceoílu B(2020)规则涵盖解释和提升。arXiv:2007.06379
[29] Bixby RE(2012)《线性和混合整数规划计算简史》。数学文献2012:107-121·Zbl 1270.90003号
[30] Blake CL,Merz CJ(1998)UCI机器学习数据库库。http://www.ics.uci.edu/mlearn/MLRepository.html,加州大学欧文分校,信息与计算机科学系
[31] 布朗奎罗,R。;卡里佐萨E。;Jiménez Cordero,A。;Martín-Barragán,B.,基于函数数据的支持向量机的函数带宽核:交替优化算法,Eur J Oper Res,275,1195-207(2019年)·Zbl 1430.90450
[32] 布朗奎罗,R。;卡里佐萨E。;Jiménez Cordero,A。;Martín-Barragán,B.,多元函数数据的支持向量回归时间点和区间选择,计算机操作研究,123105050(2020)
[33] Blanquero R,Carrizosa E,Molero-Río C,Romero Morales D(2021)最优随机分类树。即将出版的Compu Oper Res.doi:10.1016/j.cor.2021.105281·Zbl 1441.62163
[34] Blanquero R,Carrizosa E,Molero-Río C,Romero Morales D(2020a)关于稀疏最优回归树的研究。西班牙塞维利亚IMUS技术报告。https://www.researchgate.net/publication/326901224_最优随机分类树·Zbl 1441.62163
[35] Blanquero R,Carrizosa E,Molero-Río C,Romero Morales D(2020b)最优随机分类树的稀疏性。欧洲运营研究杂志284(1):255-272·Zbl 1441.62163
[36] Botari T,Hvilshøj F,Izbicki R,de Carvalho ACPLF(2020)MeLIME:机器学习模型的有意义的局部解释。arXiv:2009.05818
[37] 洛城博图。;柯蒂斯,F。;Nocedal,J.,《大规模机器学习的优化方法》,SIAM Rev,60,223-311(2018)·Zbl 1397.65085
[38] 布雷曼,L.,随机森林,马赫学习,45,1,5-32(2001)·Zbl 1007.68152号
[39] 布雷曼,L。;弗里德曼,JH;奥尔申,RA;Stone,CJ,《分类和回归树》(1984),贝尔蒙特:沃兹沃斯,贝尔蒙特
[40] 行政长官布罗德利;Utgoff,PE,多元决策树,Mach Learn,19,1,45-77(1995)·Zbl 0831.68091
[41] Carrizosa E,Galvis Restrepo M,Romero Morales D(2019),广义线性模型中分类预测因子的聚类分类。技术报告,哥本哈根商学院,丹麦。https://www.researchgate.net/publication/349179679_关于“聚类”“类别”“分类”“预测因子”“广义线性模型”
[42] 卡里佐萨E。;格雷罗,V。;哈特,D。;Romero Morales,D.,关于通过数学优化为新闻数据流构建在线可视化地图,大数据,6,2,139-158(2018)
[43] 卡里佐萨E。;格雷罗,V。;Romero Morales,D.,通过DC(凸差异)优化将数据可视化为对象,数学程序Ser B,169,119-140(2018)·Zbl 1390.90616号
[44] Carrizosa E,Guerrero V,Romero Morales D,Satorra A(2020a),通过数学优化提高因子分析的可解释性。多变量行为研究55(5):748-762
[45] Carrizosa E,Kurishchenko K,Marin A,Romero Morales D(2020b),通过原型优化解释集群。技术报告,哥本哈根商学院,丹麦。https://www.researchgate.net/publication/349287282_通过原型优化解释集群
[46] Carrizosa E,Mortensen LH,Romero Morales D,Sillero Denamiel MR(2020c),关于具有层次分类变量的线性回归模型。西班牙塞维利亚IMUS技术报告。https://www.researchgate.net/publication/341042405_关于“线性回归模型”和“分层”分类变量
[47] 卡里佐萨E。;Nogales-Gómez,A。;Romero Morales,D.,《支持向量机中的聚类分类》,Omega,66,28-37(2017年)
[48] 卡里佐。;奥莉瓦雷斯·纳达尔,AV;Ramírez Cobo,P.,《通过矩量拟合的全局优化进行时间序列插值》,欧洲操作研究所,230,1,97-112(2013)·Zbl 1317.62068
[49] 卡里佐萨E。;Romero Morales,D.,监督分类和数学优化,计算机操作研究,40,1150-165(2013)·Zbl 1349.68135
[50] Casalicchio G,Molnar C,Bischl B(2019年),可视化黑盒模型的特征重要性。In:Berlingerio M,Bonchi F,Gärtner T,Hurley N,Ifrim G(eds)《数据库中的机器学习和知识发现》,第655-670页,Cham。斯普林格国际出版公司
[51] Cerkitelli,T。;奎尔西亚,D。;Pasquale,F.,大数据和小数据的透明数据挖掘(2017),柏林:斯普林格,柏林
[52] 陈博士。;弗赖贝格,SP;莫克尔,R。;Provost,F.,《在得出关于个人的数据驱动推断时增强透明度和控制》,《大数据》,5,3,197-212(2017年)
[53] Chen T,Guestrin C(2016)XGBoost:一个可扩展的树提升系统。在:第22届ACM SIGGDD知识发现和数据挖掘国际会议论文集,第785-794页
[54] 科恩,S。;德罗,G。;Ruppin,E.,通过联合博弈论进行特征选择,神经计算,19,7,1939-1961(2007)·Zbl 1173.91305号
[55] 崔Z,陈伟,何勇,陈勇(2015)随机森林和人工林的最优行为提取。第21届ACM-SIGKDD国际知识发现与数据挖掘会议论文集,第179-188页
[56] Dash S,Günlüko,Wei D(2018)通过列生成的布尔决策规则。在:神经信息处理系统的进展,4655-4665页
[57] 德米里斯,A。;贝内特,KP;Shawe Taylor,J.,《通过列生成提升线性规划》,Mach Learn,46225-254(2002)·Zbl 0998.68105
[58] DemirovićE,Lukina A,Hebrard E,Chan J,Bailey J,Leckie C,Ramamohanarao K,Stuckey PJ(2020)MurTree:通过动态规划和搜索实现的最优分类树。arXiv:2007.12652
[59] DemirovićE,Stuckey PJ(2020),非线性度量的最优决策树。arXiv:2009.06921
[60] 邓H,龙格G(2012)基于正则树的特征选择。2012年国际神经网络联席会议(IJCNN),pp 1-8,IEEE
[61] 邓,H。;Runger,G.,《引导正则化随机森林的基因选择》,模式识别,46,12,3483-3489(2013)
[62] Denil M,Matheson D,Freitas N(2013)在线随机森林的一致性。In:国际机器学习会议,第1256-1264页
[63] Dougherty J,Kohavi R,Sahami M(1995)连续特征的监督和无监督离散化。在:机器学习程序1995,第194-202页,爱思唯尔
[64] Duarte Silva,AP,《监督分类的优化方法》,Eur J Oper Res,261,2772-788(2017年)·Zbl 1403.62114
〔65〕 Dunn J(2018)《用于预测和处方的最优树》。在:麻省理工学院博士论文
[66] 埃斯特夫,M。;阿帕里西奥,J。;拉巴萨,A。;Rodriguez Sala,JJ,《效率分析树:通过决策树估算生产前沿的新方法》,专家系统应用,162113783(2020)
[67] 欧洲委员会(2020年)《人工智能白皮书:欧洲追求卓越和信任的方法》。https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf
[68] 方X,刘胜,P(2013)什么时候更新从数据中发现的知识?操作参考61(1):32-44·Zbl 1267.90166
〔69〕 Fawagreh K,Medhat Gaber M,Elyan E(2014)《随机森林:从早期发展到近期进展》。系统科学控制工程2(1):602-609
[70] Fayyad-UM,Irani-KB(1992)决策树生成中的属性选择问题。In:AAAI,第104-110页
[71] 费尔南德斯·德尔加多,M。;塞纳达斯,E。;巴罗,S。;Amorim,D.,《我们需要数百个分类器来解决现实世界的分类问题吗?》,J Mach Learn Res,153133-3181(2014)·Zbl 1319.62005
[72] 费尔南德斯,RR;马丁德迭戈,我。;阿塞尼亚,V。;费尔南德斯·伊莎贝尔,A。;Moguerza,JM,《使用反事实集的随机森林可解释性》,Inf Fusion,63196-207(2020)
[73] 费拉特,M。;克罗尼,G。;加博,AF;卡肯斯,卡肯;Zhang,Y.,基于列生成的启发式学习分类树,计算机操作研究,116104866(2020)·Zbl 1458.68201号
[74] 福图拉基斯,K。;Gondzio,J.,强凸正则化问题的二阶方法,数学程序,156,1199-219(2016)·Zbl 1364.90255
[75] Freitas,AA,《可理解分类模型:立场文件》,ACM SIGKDD Explor Newsl,15,1,1-10(2014)
[76] 弗伦德,Y。;谢皮尔,RE,在线学习的决策理论概括及其在boosting中的应用,计算机系统科学杂志,55,1199-139(1997)·Zbl 0880.68103
[77] 《贪心函数逼近:梯度提升机》,安统计,29,51189-1232(2001)·Zbl 1043.62034
[78] Friedman,JH,随机梯度推进,计算机统计数据分析,38,4367-378(2002)·Zbl 1072.65502
[79] 傅,Z。;金色,蓝色;乐乐。;Raghavan,S。;Wasil,EA,一种基于遗传算法的建立精确决策树的方法,通知J Comput,15,1,3-22(2003)·Zbl 1238.90076
[80] Gambella C,Ghaddar B,Naoum Sawaya J(2020),机器学习的优化模型:调查。运营资源290(3):807-828欧元
[81] 膝,右。;波吉,J-M;图洛·马洛特,C。;Villa Vialaneix,N.,大数据随机森林,大数据研究,9,28-46(2017)
[82] Georganos S,Grippa T,Gadiaga AN,Linard C,Lennert M,Vanhuysse S,Mboga N,Wolff E,Kalogirou S(2019)地理随机森林:随机森林算法的空间扩展,以解决遥感和人口模型中的空间异质性。地理卡通国际36(2):121-136
[83] 杰弗里,M。;迪莫普洛斯一世。;Lek,S.,人工神经网络模型中变量贡献研究方法的回顾与比较,Ecol模型,160,3,249-264(2003)
[84] 冈萨雷斯。;加西亚,S。;德尔塞,J。;罗卡,L。;Herrera,F.,《基于装袋和提升的机器学习集成实用教程:算法、软件工具、性能研究、实践视角和机会》,Inf Fusion,64205-237(2020)
[85] 古德费罗,我。;本吉奥,Y。;Courville,A.,深度学习(2016),霍博肯:麻省理工学院出版社,霍博肯·Zbl 1373.68009
[86] 古德曼,B。;Laxman,S.,欧盟算法决策和“解释权条例”,AI Mag,38,3,50-57(2017)
[87] 格鲁宾格,T。;泽利斯,A。;Pfeiffer,K-P,evtree:R,J Stat Softw文章中的全局最优分类和回归树的进化学习,61,1,1-29(2014)
[88] Günlük O,Kalagnanam J,Menickelly M,Scheinberg k(2019)通过整数规划对分类数据的最优决策树。arXiv:1612.03225v3
[89] 喷补,D。;Aha,DW,DARPA可解释人工智能程序,AI Mag,40,2,44-58(2019年)
[90] 盖昂,我。;《变量与特征选择导论》,J Mach Learn Res,31157-1182(2003)·Zbl 1102.68556
[91] 黑斯蒂,T。;罗塞特,S。;朱杰。;Zou,H.,多类AdaBoost,统计接口,2,3,349-360(2009)·Zbl 1245.62080
[92] 黑斯蒂,T。;蒂比拉尼,R。;Friedman,J.,《统计学习的要素》(2009),纽约:斯普林格,纽约
[93] 黑斯蒂,T。;蒂比拉尼,R。;Wainwright,M.,《稀疏统计学习:套索与归纳》(2015),霍博肯:CRC出版社,霍博肯·Zbl 1319.68003
[94] 霍夫曼,吉咪;夏尔玛,A。;Watts,DJ,《社会系统预测与解释》,科学,355,6324,486-488(2017)
[95] Holter S、Gomez O、Bertini E(2018)FICO可解释机器学习挑战。https://community.fico.com/s/explainable-machine-learning-challenge
[96] Höppner S,Stripling E,Baesens B,vanden Broucke S,Verdonck T(2020)用于客户流失预测的利润驱动决策树。欧洲运营研究杂志284(3):920-933·Zbl 1441.62739
[97] 胡,X。;鲁丁,C。;Seltzer,M.,最优稀疏决策树,Adv神经网络信息处理系统,327265-7273(2019年)
[98] 海菲尔。;《构造最优二元决策树是NP完全的,Inf过程Lett,5,1,15-17》(1976)·Zbl 0333.68029
[99] Iosifidis V,Ntoutsi E(2019年),Adafair:累积公平适应性提升。在:第28届ACM国际信息和知识管理会议记录,CIKM'19,pp 781-790,纽约,美国,计算机械协会
[100] Irsoy O,Yıldız OT,Alpaydın E(2012)软决策树。In:第21届国际模式识别会议论文集(ICPR2012),第1819-1822页
[101] Izza Y,Ignatiev A,Marques Silva J(2020),关于解释决策树。arXiv:2010.11034
[102] Jakaitiene A,Sangiovanni M,Guaracino MR,Pardalos PM(2016)《基因组数据多维标度》,第129-139页。斯普林格国际出版社·Zbl 1359.62478号
[103] Jung J、Concannon C、Shroff R、Goel S、Goldstein DG(2017),为复杂决策制定简单规则。哈佛商业评论2017:1
[104] 荣格,J。;康康农,C。;舍洛夫,R。;戈尔,S。;Goldstein,DG,《指导专家分类的简单规则》,J R Stat Soc Ser A(Stat Soc),183,3771-800(2020年)
[105] 北卡罗迪。;Li,J.,《基于人工智能的网络威胁格局:调查》,ACM Comput Surv(CSUR),53,1,1-34(2020年)
[106] 高,惠普;Tang,K.,成本敏感决策树归纳法与标签相关的后期约束,通知J Comput,26,2238-252(2014)·Zbl 1357.68173
[107号] Karimi A-H,Barthe G,Schölkopf B,Valera I(2020)算法资源调查:定义、公式、解决方案和前景。arXiv:2010.04050
[108] Karmy,日本;Maldonado,S.,《欧洲旅游零售业中通过支持向量回归进行分层时间序列预测》,专家系统应用,13759-73(2019年)
[109号] Kass,GV,用于调查大量分类数据的探索性技术,J R Stat Soc Ser C(Appl Stat),29,2,119-127(1980)
[110] 卡图瓦,R。;苏甘坦,PN;张,L.,异质倾斜随机森林,模式识别,99107078(2020)
[111] Khalil EB,Le Bodic P,Song L,Nemhauser GL,Dilkina BN(2016)学习混合整数规划分支。输入:AAAI,第724-731页
[112] 金,H。;Loh,W-Y,无偏多向分割的分类树,J Am Stat Assoc,96,454,589-604(2001)
[113] 克莱因伯格,J。;拉卡拉朱,H。;Leskovec,J。;路德维希,J。;Mullainathan,S.,人类决策和机器预测,Q J Econ,133,1237-293(2018)·Zbl 1405.91119号
[114] 克恩克,R。;哈洛克,KF,分位数回归,经济学透视杂志,15,4,143-156(2001)
[115] Kriegler B,Berk R(2010)洛杉矶无家可归者的小面积估计:成本敏感随机梯度提升的应用。安应用统计2010:1234-1255·Zbl 1202.62178
[116] Li,X-B;小斯维加尔;滕,裕廊集团;多诺霍,吉咪;洛杉矶汤姆斯;王小明,应用线性判别式与禁忌搜索的多元决策树,IEEE Trans-Syst-Man-Cybern第A辑,第33期,第2194-205页(2003年)
[117] Liberti,L.,《距离几何和数据科学》,顶部,28271-339(2020)·Zbl 07215401
[118] 林杰,钟C,胡D,鲁丁C,萨尔茨M(2020)广义可伸缩最优稀疏决策树。arXiv:2006.08690
[119] 刘,H。;侯赛因,F。;谭,C。;Dash,M.,《离散化:一种使能技术》,Data Min Knowl Disc,6,4,393-423(2002)
[120] 洛迪,A。;Zarpellon,G.,《学习与分支:调查》,TOP,25,2207-236(2017)·Zbl 1372.90003号
〔121〕 Loh,W-Y,《50年分类和回归树》,国际统计修订版,82,3,329-348(2014)·Zbl 1416.62347
[122号] 洛,W-Y;石英云,分类树的分割选择方法,国家统计局,7,4,815-840(1997)·Zbl 1067.62545
[123号] 2013年《森林的重要性》(Louces Sutg,Weurt)的随机变量。Adv神经信息处理系统2013:431-439
[124] Lucic A,Oosterhuis H,Haned H,de Rijke M(2020年),《聚焦:树集合的灵活优化反事实解释》。arXiv:1911.12199年
[125] 山猫伦德伯格;埃利昂,G。;陈,H。;降解,A。;普鲁特金,吉咪;奈尔,B。;卡茨,R。;希梅尔法布,J。;班萨尔,N。;Lee,S-I,从局部解释到全球理解,树木的可解释人工智能,Nature Mach Intell,2,1522-5839(2020)
[126] Lundberg SM,Erion G,Lee S-I(2018年),树集合的一致个性化特征属性。arXiv:1802.03888
[127号] Lundberg SM,Lee S-I(2017)《解释模型预测的统一方法》。Adv神经信息处理系统2017:4765-4774
[128] 马丁,D。;贝森,B。;电视台;Vanthienen,J.,《使用支持向量机规则提取的可理解信用评分模型》,Eur J Oper Res,183,31466-1476(2007)·Zbl 1278.91177
[129] 马丁,D。;Provost,F.,解释数据驱动文档分类,MIS Q,38,1,73-99(2014)
[130] Martínez Torres J,Iglesias Comesaña C,García-Nieto PJ(2019),机器学习技术应用于网络安全。国际机器学习网络10(10):2823-2836
[131号] Meinshausen,N.,节点收获,Ann Appl Stat,4,4,2049-2072(2010年)·Zbl 1220.62084
[132] Menze BH,Kelm BM,Splitthoff DN,Koethe U,Hamprecht FA(2011)关于斜向随机森林。In:Gunopulos D,Hofmann T,Malerba D,Vazirgiannis M(eds)《数据库中的机器学习和知识发现》,第453-469页
[133] Miller,T.,《人工智能解释:来自社会科学的见解》,Artu Intell,267,1-38(2019年)·Zbl 07099170
[134号] Miron M、Tolan S、Gómez E、Castillo C(2020),解决数据驱动决策中群体公平性的多个指标。arXiv:2003.04794
[135] MišićVV(2020)树木组合优化。操作资源68(5):1605-1624·Zbl 1457.90098
[136] 莫勒,A。;图兹,G。;Gertheiss,J.,功能协变量的随机森林,化学杂志,30,12,715-725(2016)
[137] 莫纳尔,C。;卡萨利奇奥,G。;Bischl,B.,iml:可解释机器学习的R包,开放源码软件J,3,26,786(2018)
[138] Molnar C、Casalicchio G、Bischl B(2020)《可解释机器学习——简史、最新技术和挑战》。arXiv:2010.09337
[139号] Mothilal RK,Sharma A,Tan C(2020)通过不同的反事实解释解释机器学习分类器。在:2020年公平、问责和透明度会议记录,第607-617页
[140] 蒙提,SK;卡斯夫,S。;Salzberg,S.,倾斜决策树的归纳系统,J人工智能研究,2,1-32(1994)·Zbl 0900.68335
[141] Narodytska N,Ignatiev A,Pereira F,Marques Silva J(2018)《利用SAT学习最优决策树:第二十七届国际人工智能联合会议论文集》(IJCAI-18),第1362-1368页·Zbl 06958127
[142号] 尼森,S。;Fromont,E.,基于项目集格的最优约束决策树归纳法,数据Min Knowl Disc,21,1,9-51(2010)
[143] Norouzi M,Collins M,Johnson MA,Fleet DJ,Kohli P(2015)决策树的有效非贪婪优化。Adv神经信息处理系统2015:1729-1737
[144] 奥塞尼戈,C。;Vercellis,C.,基于最小特征离散支持向量机的多元分类树,IMA J Manag Math,14,3,221-234(2003)·40ZB1115升
[145] Óskarsdóttir M,Ahmed W,Antonio K,Baesens B,Dendievel R,Donas T,Reynkens T(2020)《保险监督欺诈检测的社会网络分析》。arXiv:2009.08313
[146号] Palagi,L.,深度网络回归中的全局优化问题:概述,J Global Optim,73,2,239-277(2019)·Zbl 1421.90154
[147] 盘吉兰,吉咪;詹森斯,GK,进化算法中斜向决策树的帕累托最优性,J Global Optim,51,2,301-311(2011)·Zbl 1230.90171
[148] Pardalos PM,Boginski VL,Vazacopoulos A(eds)(2007)生物医学数据挖掘。Springer优化及其应用
[149号] Pfetsch ME,Pokutta S(2020)IPBoost非凸boosting via integer programming。arxiv:2002.04679
[150] 皮切利,V。;Scandrone,M.,非线性优化和支持向量机,4OR,16,2,111-149(2018)·Zbl 1398.65126号
[151] Pospisil T,Lee AB(2019)(f)RFCDE:条件密度估计和函数数据的随机森林。arXiv:1906.07177
[152] Quinlan JR(1993)C4.5:机器学习程序。摩根考夫曼,圣马特奥
[153] 拉赫曼,R。;杜鲁巴,SR;Ghosh,S。;Pal,R.,功能随机森林及其在剂量反应预测中的应用,Sci报告,9,1,1-14(2019年)
[154] Ramon Y,Martens D,Provost F,Evgeniou T(2020),行为和文本数据的实例级反事实解释算法比较:SEDC,LIME-C和SHAP-C。Adv data Anal Classif 2020:5
[155] Ribeiro MT,Singh S,Guestrin C(2016)《我为什么要相信你?:解释任何分类器的预测。在:第22届ACM SIGGDD知识发现和数据挖掘国际会议论文集,1135-1144页
[156] Ridgeway,G.,《预测的陷阱》,国家司法研究所,第271期,第34-40页(2013年)
[157] 罗密亚,A。;Ruggieri,S.,关于歧视分析的多学科调查,Knowl Eng Rev,29,5582-638(2014)
[158] Rudin,C.,停止解释高风险决策的黑箱机器学习模型,改用可解释模型,Nature Mach Intell,1,5,206-215(2019)
[159] 鲁丁,C。;Ertekin,Ş.,使用数学规划学习定制和优化规则列表,数学程序Comput,10,4,659-702(2018)·Zbl 1411.90234
[160] Ruggieri,S.,在决策树中完全搜索特征选择,J Mach Learn Res,20,104,1-34(2019年)·Zbl 1446.68141
[161] Saha A、Basu S、Datta A(2020年)相关数据的随机森林。arXiv:2007.15421
[162] 萨维克P、 Klaschka J,Antoch J(2000)最优分类树。地址:COMPSTAT,第427-432页,施普林格·Zbl 1455.62128
[163] Scornet,E.,关于随机森林的渐近性,多元分析杂志,14672-83(2016)·Zbl 1337.62063
[164] 蔑视者E。;彪,G。;Vert,J-P,《随机森林的一致性》,Ann Stat,43,41716-1741(2015年)·Zbl 1317.62028
[165] 谢拉利,HD;阿拉伯联合酋长国霍贝卡;Jeenanunta,C.,《决策树的最优约束剪枝策略》,通知J Comput,21,1,49-61(2009)·Zbl 1243.91029号
[166号] Sokol K,Flach PA(2019)机器学习预测的反事实解释:人工智能安全的机遇和挑战。输入:SafeAI@AAAI
[167] 苏亚尔·曼德尔,W。;戴维斯,R。;鲁丁。;澳大利亚、俄罗斯。;李邦,DJ;斯文森,R。;价格,CC;拉马尔,M。;Penney,DL,《数字时钟绘制测试中从细微行为中学习认知条件的分类模型》,Mach Learn,102,3,393-441(2016)
[168号] Street,WN,使用非线性规划的倾斜多类别决策树,通知J Comput,17,1,25-31(2005)·Zbl 1239.68064
[169] 斯特罗布,C。;布尔斯泰克斯,A-L;克奈布,T。;奥古斯丁,T。;Zeileis,A.,随机森林的条件变量重要性,BMC Bioinf,9,1307(2008)
[170] 苏,X。;王,M。;Fan,J.,最大似然回归树,计算图统计杂志,13,3586-598(2004)
[171] Therneau T,Atkinson B,Ripley B(2015)rpart:递归分区和回归树,2015。R程序包版本4.1-10
[172] Truong A(2009)通过logistic回归模型快速生长和可解释的斜树。入:博士。毕业论文,英国牛津大学
[173] Tuncel,堪萨斯州;Baydogan,MG,《多元时间序列建模的自回归森林》,模式识别,73202-215(2018)
[174] 《成本敏感分类:混合遗传决策树归纳算法的实证评估》,J Artir Intell Res,2369-409(1995)
[175] 乌斯顿,B。;Rudin,C.,优化医疗评分系统的超级解析线性整数模型,Mach Learn,102,3349-391(2016)·Zbl 1406.62144
[176] 范弗拉塞勒,V。;Eliassi Rad,T。;阿科格鲁,L。;鼻颈,M。;贝森,B.,明白了!基于网络的社会保障欺诈检测,管理Sci,63,9,3090-3110(2017)
[177] Verhaeghe H,Nijssen S,Pesant G,Quimper C-G,Schaus P(2019),使用约束规划学习最优决策树。在:第25届约束规划原则与实践国际会议(CP2019)
[178] Verma S,Dickerson J,Hines K(2020)机器学习的反事实解释:综述。arXiv:2010.10596
[179] Verwer S,Zhang Y(2017)使用整数优化学习具有灵活约束和目标的决策树。在Salvagnin D,Lombardi M(eds)《约束编程中人工智能和/或技术的集成:第14届国际会议,2017年CPAIOR,意大利帕多瓦。会议记录,第94-103页·中银06756578
[180度] 弗尔,S。;张,Y。;Ye,QC,《利用回归树和线性模型作为整数规划的拍卖优化》,Artir Intell,244368-395(2017)·Zbl 1404.68122号
[181号] 弗尔,S。;张,Y。;Ye,QC,《使用二进制线性规划公式学习最佳分类树》,Proc AAAI Conf Artif Intel,331625-1632(2019年)
[182号] 维达尔T,帕切科T,希弗M(2020)重生树群。arXiv:2003.11132
[183] Visani G,Bagli E,Chesani F,Poluzzi A,Capuzzo D(2020)《石灰的统计稳定性指数:获得机器学习模型的可靠解释》。arXiv:2001.11757
[184] 瓦赫特,S。;米特尔斯塔特,B。;Russell,C.,《不打开黑匣子的反事实解释:自动决策和GDPR》,哈佛法律技术期刊,31841-887(2017)
[185] 下注,S。;《非均匀森林效应估计》(Assy S,1228),第123-528页(ASSY-528,ASSY-528)·Zbl 1402.62056
[186] 威斯顿,J。;埃利塞夫,A。;舍尔科夫,B。;Tipping,M.,线性模型和核方法的零范数的使用,J Mach Learn Res,31439-1461(2003)·Zbl 1102.68605
[187] 威克拉玛拉奇特区;罗伯逊,BL;雷亚尔,M。;价格,CJ;Brown,J.,HHCART:倾斜决策树,《计算统计数据分析》,96,12-23(2016)·Zbl 06918560
[188] 维克拉玛苏里亚,SL;阿萨那索普洛斯,G。;Hyndman,RJ,通过跟踪最小化实现分层和分组时间序列的最优预测调节,J Am Stat Assoc,114526804-819(2019)·Zbl 1420.62402
[189] 杨,L。;刘,S。;Tsoka,S。;Papageorgiou,LG,《使用数学规划的回归树方法》,专家系统应用,78347-357(2017)
[190号] Yang Y,Garcia Morillo I,Hospedales TM(2018)深层神经决策树。arXiv:1806.06988年
[191] 于杰,伊格纳蒂耶夫A,斯塔基PJ,勒博迪克P(2020)利用SAT计算最优决策集,arXiv:2007.15140
[192号] Zafar MB、Valera I、Gomez Rodriguez M、Gummadi KP(2017)《公平约束:公平分类机制》。In:人工智能与统计,第962-970页,PMLR
[193] Zantedeschi V,Kusner MJ,Niculae V(2020),通过稀疏松弛学习二叉树。arXiv:2010.04627
[194号] 曾杰。;乌斯顿,B。;Rudin,C.,累犯预测的可解释分类模型,J R Stat Soc Ser A,180,3,689-722(2017年)
[195] 张勇、宋K、孙妍、谭S、乌代尔M(2019)你为什么要相信我的解释?理解石灰解释中的不确定性。arXiv:1904.12991
[196] Zhu H,Murali P,Phan DT,Nguyen LM,Kalagnanam JR(2020),基于可伸缩MIP的最优多元决策树学习方法。Adv神经信息处理系统2020:33
此参考列表基于出版商或数字数学图书馆提供的信息。它的项被试探性地匹配到zbMATH标识符,并且可能包含数据转换错误。它试图尽可能准确地反映原始论文中列出的参考文献,而不要求匹配的完整性或精确性。