×

分类和回归树中的数学优化。 (英语) Zbl 1467.90021号

摘要:分类树和回归树及其变体是机器学习中的现成方法。在本文中,我们回顾了连续优化和混合整数线性优化范式在该研究领域开发新配方方面的最新贡献。我们根据决策变量的性质、所需的约束以及提出的优化算法对这些进行了比较。我们举例说明了这些强大的公式如何增强树模型的灵活性,更适合纳入成本敏感性、可解释性和公平性等理想属性,以及处理复杂数据,如功能数据。

MSC公司:

90立方厘米 混合整数编程
90立方 非线性规划
PDF格式BibTeX公司 XML格式引用
全文: 内政部

参考文献:

[1] 阿盖伊,S。;阿齐兹,MJ;Vayanos,P.,《学习非歧视决策的最优和公平决策树》,《AAAI Conf Artif Intell程序》,第33期,第1418-1426页(2019年)
[2] Aghaei S,Gomez A,Vayanos P(2020)学习最优分类树:强大的最大流公式。arXiv:2002.09142号
[3] Aglin G,Nijssen S,Schaus P(2020)使用缓存分支定界搜索学习最优决策树。参加:第三十四届AAAI人工智能会议
[4] 阿胡加,RK;麦格南蒂,TL;奥林,JB,《网络流:理论、算法和应用》(1993),新泽西:普伦蒂斯·霍尔,新泽西·Zbl 1201.90001号
[5] Altmann,A。;托洛什。;O·桑德。;Lengauer,T.,《排列重要性:修正的特征重要性度量》,生物信息学,26,10,1340-1347(2010)
[6] Aouad A、Elmachtoub AN、Ferreira KJ、McNellis R(2019)市场细分树。arXiv公司:1906.01174
[7] 阿普塞米迪斯,A。;Psarakis,S。;Moguerza,JM,《统计过程监控中机器学习内核方法综述》,计算工业工程,142106376(2020)
[8] Athanasopoulos,G。;RJ Hyndman;北卡罗来纳州库伦茨。;Petropoulos,F.,《时间层次预测》,《欧洲运营研究杂志》,262,1,60-74(2017)·Zbl 1403.62154号
[9] Baesens,B。;塞提诺,R。;梅斯,C。;Vantheinen,J.,《使用神经网络规则提取和决策表进行信用风险评估》,《管理科学》,49,3,312-329(2003)·兹比尔1232.91684
[10] Balakrishnan S,Madigan D(2006),函数变量的决策树。摘自:第六届数据挖掘国际会议(ICDM’06),第798-802页
[11] 巴罗卡斯,S。;Selbst,AD,《大数据的不同影响》,《加利福尼亚州法律评论》,104,671(2016)
[12] Barredo Arrieta A、Díaz-Rodríguez N、Del Ser J、Bennetot A、Tabik S、Barbado A、GarcíA G、Gil-López S、Molina D、Benjamins R、Chatila R、Herrera F(2020)《可解释人工智能(XAI):概念、分类、面向负责任人工智能的机遇和挑战》。信息融合58:82-115
[13] Barros RC、Basgalupp MP、De Carvalho ACPLF、Freitas AA(2011)决策树归纳进化算法调查。IEEE Trans-Syst Man Cybern第C部分(应用版本)42(3):291-312
[14] 丹麦巴罗;Crone,SF,Adaboost算法在时间序列预测组合中的比较,Int J forecast,32,4,1103-1119(2016)
[15] Bénard C、Biau G、Da Veiga S、Scornet E(2019)SIRUS:使随机森林具有可解释性。arXiv:1908.06852·Zbl 1458.62126号
[16] Bénard C,Biau G,Da Veiga S,Scornet E(2020)通过规则提取的可解释随机森林。arXiv:2004.14841年·Zbl 1458.62126号
[17] 贝尼特斯·佩尼亚,S。;博格托夫,P。;Romero Morales,D.,数据包络分析中的特征选择:一种数学优化方法,Omega,96102068(2020)
[18] Benítez-Peña S、Carrizosa E、Guerrero V、Jiménez-Gamero MD、Martín-Barragan B、Molero-Río C、Ramírez-Cobo P、Romero Morales D、Sillero-Denamiel MR(2020b)关于稀疏集合方法:应用于covid-19进化的短期预测。技术报告,IMUS,西班牙塞维利亚。https://www.researchgate.net/publication/341608874_On_Sparse_Ensemble_Methods_An_Application_to_Short-Term_Prections_of_the_Evolution_of_COVID-19
[19] Bennett KP(1992)通过线性规划构建决策树。单位:威斯康星大学计算机科学系,并行优化中心
[20] Bennett KP,Blue J(1996)最优决策树。收录:伦斯勒理工学院数学报告,第214页
[21] 贝内特,KP;Mangasarian,OL,两个线性不可分集的鲁棒线性规划判别,Optim Methods Softw,1,23-24(1992)
[22] Bertsimas博士。;Dunn,J.,《最佳分类树》,《马赫学习》,106,7,1039-1082(2017)·Zbl 1455.68159号
[23] Bertsimas博士。;Dunn,J。;Mundru,N.,《最优规定树》,INFORMS J Optim,1,2,164-183(2019)
[24] Bertsimas博士。;奥黑尔,A。;雷利亚,S。;Silberholz,J.,《设计癌症联合化疗方案的分析方法》,《管理科学》,62,5,1511-1531(2016)
[25] Bertsimas博士。;Shioda,R.,通过整数优化进行分类和回归,Oper Res,55,2,252-271(2007)·Zbl 1167.90593号
[26] Biau,G。;Devroye,L。;Lugosi,G.,随机森林和其他平均分类器的一致性,J Mach Learn Res,92015-2033(2008)·Zbl 1225.62081号
[27] Biau,G。;Scornet,E.,《随机森林导览》,TEST,25,2,197-227(2016)·Zbl 1402.62133号
[28] Birbil SI、Edali M、Yüceolu B(2020)《解释和提升规则》。arXiv:2007.06379号
[29] Bixby RE(2012)线性和混合整数编程计算简史。数学文献2012:107-121·1270.90003赞比亚比索
[30] Blake CL,Merz CJ(1998)UCI机器学习数据库库。网址:http://www.ics.uci.edu/mlearn/MLRepository.html,加州大学欧文分校信息与计算机科学系
[31] 布兰科罗,R。;Carrizosa,E。;Jiménez-Cordero,A。;Martín-Barragán,B.,《带函数数据的支持向量机的函数带宽核:一种交替优化算法》,《欧洲运筹学杂志》,275,1,195-207(2019)·Zbl 1430.90450号
[32] 布兰科罗,R。;Carrizosa,E。;吉姆·科德罗,A。;Martín-Barragán,B.,《利用支持向量回归选择多变量功能数据的时间瞬间和间隔》,《计算操作研究》,123,105050(2020)·Zbl 1458.62322号
[33] Blankero R,Carrizosa E,Molero-Río C,Romero Morales D(2021)最优随机分类树。即将推出的Compu Oper Res.doi:10.1016/j.cor.2021.105281·Zbl 1441.62163号
[34] Blankero R,Carrizosa E,Molero-Río C,Romero Morales D(2020a)关于稀疏最优回归树。在:技术报告,IMUS,西班牙塞维利亚。https://www.researchgate.net/publication/326901224_Optimal_Randomized_Classification_Trees网站 ·Zbl 1441.62163号
[35] Blankero R、Carrizosa E、Molero-Río C、Romero Morales D(2020b)最优随机分类树中的稀疏性。欧洲运营研究杂志284(1):255-272·Zbl 1441.62163号
[36] Botari T、Hvilshöj F、Izbicki R、de Carvalho ACPLF(2020)MeLIME:机器学习模型的有意义的本地解释。arXiv:2009.05818
[37] 博图,L。;柯蒂斯,F。;Nocedal,J.,《大规模机器学习的优化方法》,SIAM Rev,60,2,223-311(2018)·Zbl 1397.65085号
[38] Breiman,L.,《随机森林》,《马赫学习》,第45、1、5-32页(2001年)·Zbl 1007.68152号 ·doi:10.1023/A:1010933404324
[39] 布雷曼,L。;JH弗里德曼;奥尔森,RA;Stone,CJ,《分类和回归树》(1984),贝尔蒙特:沃兹沃斯,贝尔蒙特·Zbl 0541.62042号
[40] 布罗德利,CE;Utgoff,PE,多元决策树,马赫学习,19,1,45-77(1995)·Zbl 0831.68091号
[41] Carrizosa E,Galvis Restrepo M,Romero Morales D(2019)关于广义线性模型中类别预测因子的聚类类别。丹麦哥本哈根商学院技术报告。https://www.researchgate.net/publication/349179679_On_Clustering_Categories_of_Categorical_Predictors_in_Generalized_Linear_Models
[42] Carrizosa,E。;格雷罗,V。;Hardt,D。;Romero Morales,D.,《利用数学优化为新闻数据流构建在线可视化地图》,大数据,6,2,139-158(2018)
[43] Carrizosa,E。;格雷罗,V。;Romero Morales,D.,通过DC(凸差)优化将数据可视化为对象,数学程序Ser B,169119-140(2018)·Zbl 1390.90616号
[44] Carrizosa E、Guerrero V、Romero Morales D、Satorra A(2020a)通过数学优化提高因子分析的可解释性。多元行为研究55(5):748-762
[45] Carrizosa E,Kurishchenko K,Marin A,Romero Morales D(2020b)通过原型优化解释集群。丹麦哥本哈根商学院技术报告。https://www.researchgate.net/publication/3492872_2Interpreting_Clusters_via_Prototype_Optimization
[46] Carrizosa E,Mortensen LH,Romero Morales D,Sillero-Denamiel MR(2020c)关于具有层次分类变量的线性回归模型。技术报告,IMUS,西班牙塞维利亚。https://www.researchgate.net/publication/341042405_On_linear_regression_models_with_hierarchical类别变量
[47] Carrizosa,E。;Nogales-Gómez,A。;Romero Morales,D.,支持向量机中的聚类类别,Omega,66,28-37(2017)
[48] Carrizosa,E。;奥利瓦雷斯-纳达尔,AV;Ramírez-Cobo,P.,通过矩拟合的全局优化进行时间序列插值,《欧洲运营研究杂志》,230,1,97-112(2013)·Zbl 1317.62068号
[49] Carrizosa,E。;罗梅罗·莫拉莱斯(Romero Morales,D.),《监督分类和数学优化》(Supervised classification and mathematical optimization),《计算机操作研究》(Compute Oper Res),第40、1、150-165页(2013年)·Zbl 1349.68135号
[50] Casalicchio G、Molnar C、Bischl B(2019)《可视化黑盒模型的特征重要性》。收录:Berlingerio M、Bonchi F、Gärtner T、Hurley N、Ifrim G(编辑)《数据库中的机器学习和知识发现》,第655-670页,Cham。施普林格国际出版公司
[51] Cerquitelli,T。;Quercia,D。;Pasquale,F.,《大数据和小数据的透明数据挖掘》(2017),柏林:施普林格出版社,柏林
[52] 陈,D。;Fraiberger,SP公司;莫克勒,R。;Provost,F.,《在对个人进行数据驱动推断时增强透明度和控制》,大数据,5,3,197-212(2017)
[53] Chen T,Guestrin C(2016)XGBoost:一个可扩展的树木提升系统。摘自:第22届ACM SIGKDD知识发现和数据挖掘国际会议记录,第785-794页
[54] 科恩,S。;Dror,G。;Ruppin,E.,通过联盟博弈论进行特征选择,神经计算,1939-1961(2007)·Zbl 1173.91305号
[55] Cui Z,Chen W,He Y,Chen Y(2015)随机森林和增强树木的最优行动提取。摘自:第21届ACM SIGKDD国际知识发现和数据挖掘会议记录,第179-188页
[56] Dash S,Günlük O,Wei D(2018)通过列生成的布尔决策规则。主题:神经信息处理系统的进展,第4655-4665页
[57] Demiriz,A。;贝内特,KP;Shawe-Taylor,J.,《通过列生成提升线性规划》,《马赫学习》,46,225-254(2002)·Zbl 0998.68105号
[58] DemirovićE,Lukina A,Hebrard E,Chan J,Bailey J,Leckie C,Ramamohanarao K,Stuckey PJ(2020)MurTree:通过动态编程和搜索的最佳分类树。arXiv:2007年12月652日
[59] DemirovićE,Stuckey PJ(2020),非线性度量的最优决策树。arXiv:2009.06921号
[60] Deng H,Runger G(2012)通过正则化树进行特征选择。In:2012年国际神经网络联合会议(IJCNN),第1-8页,IEEE
[61] 邓,H。;Runger,G.,引导正则随机森林的基因选择,模式识别,46,12,3483-3489(2013)
[62] Denil M、Matheson D、Freitas N(2013)《在线随机森林的一致性》。In:机器学习国际会议,pp 1256-1264
[63] Dougherty J,Kohavi R,Sahami M(1995)连续特征的监督和非监督离散化。收录:《机器学习学报1995》,第194-202页,爱思唯尔出版社
[64] 杜阿尔特·席尔瓦(Duarte Silva),AP,《监督分类的优化方法》(Optimization approachs to supervised classification),《欧洲运营研究杂志》,261,2772-788(2017)·Zbl 1403.62114号
[65] Dunn J(2018)预测和处方的最优树。发表于:麻省理工学院博士论文
[66] 尊敬的M。;Aparicio,J。;拉巴萨,A。;Rodriguez-Sala,JJ,效率分析树:通过决策树估算生产边界的新方法,专家系统应用,162113783(2020)
[67] 欧洲委员会(2020)《人工智能白皮书:欧洲追求卓越和信任的方法》。https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf
[68] Fang X,Liu Sheng OR,Goes P(2013)何时更新从数据中发现的知识?运营研究61(1):32-44·兹比尔1267.90166
[69] Fawagreh K、Medhat Gaber M、Elyan E(2014)《随机森林:从早期发展到最近发展》。系统科学控制工程2(1):602-609
[70] Fayyad UM,Irani KB(1992)决策树生成中的属性选择问题。In:AAAI,第104-110页
[71] 费尔南德斯·德尔加多,M。;Cernadas,E。;巴罗,S。;Amorim,D.,我们需要数百个分类器来解决现实世界的分类问题吗?,《马赫学习研究杂志》,1513133-3181(2014)·Zbl 1319.62005号
[72] 费尔南德斯,RR;马丁·德·迭戈,I。;埃塞纳,V。;Fernández-Isabel,A。;Moguerza,JM,《使用反事实集合解释随机森林》,Inf Fusion,63,196-207(2020)
[73] 弗拉特,M。;Crognier,G。;AF加博;加拿大司法部Hurkens;Zhang,Y.,基于列生成的启发式学习分类树,Comput Oper Res,116,104866(2020)·Zbl 1458.68201号
[74] Fountoulakis,K。;Gondzio,J.,强凸正则化问题的二阶方法,数学程序,156,1,189-219(2016)·Zbl 1364.90255号
[75] Freitas,AA,《可理解分类模型:立场文件》,ACM SIGKDD Explor Newsl,15,1,1-10(2014)
[76] 弗伦德,Y。;Schapire,RE,在线学习的决策理论推广及其在助推中的应用,计算机系统科学杂志,55,1,119-139(1997)·Zbl 0880.68103号
[77] Friedman,JH,《贪婪函数近似:梯度提升机》,《Ann Stat》,29,5,1189-1232(2001)·Zbl 1043.62034号
[78] Friedman,JH,《随机梯度增强》,《计算统计数据分析》,38,4,367-378(2002)·Zbl 1072.65502号
[79] 傅,Z。;金色,BL;Lele,S。;Raghavan,S。;Wasil,EA,《构建准确决策树的基于遗传算法的方法》,INFORMS J Compute,15,1,3-22(2003)·Zbl 1238.90076号
[80] Gambella C、Ghaddar B、Naoum-Sawaya J(2020)《机器学习的优化模型:一项调查》。欧洲药典第290号决议(3):807-828·Zbl 1487.90004号
[81] Genuer,R。;波吉,J-M;Tuleau-Malot,C。;Villa Vialaneix,N.,大数据的随机森林,大数据研究,9,28-46(2017)
[82] Georganos S、Grippa T、Gadiaga AN、Linard C、Lennert M、Vanhuysse S、Mboga N、Wolff E、Kalogirou S(2019)《地理随机森林:随机森林算法的空间扩展》,以解决遥感和人口建模中的空间异质性问题。Geocarto国际36(2):121-136
[83] Gevrey,M。;迪莫普洛斯,I。;Lek,S.,《人工神经网络模型中变量贡献研究方法的回顾与比较》,Ecol模型,160,3,249-264(2003)
[84] González,S。;南卡罗来纳州加西亚。;德尔塞尔,J。;罗卡奇,L。;Herrera,F.,《机器学习中基于打包和增强的集成实用教程:算法、软件工具、性能研究、实践观点和机会》,Inf Fusion,64,205-237(2020)
[85] 古德费罗,我。;Y.本吉奥。;Courville,A.,《深度学习》(2016),霍博肯:麻省理工学院出版社,霍博克·Zbl 1373.68009号
[86] 古德曼,B。;Flaxman,S.,欧盟关于算法决策和“解释权”的规定,AI Mag,38,3,50-57(2017)
[87] Grubinger,T。;Zeileis,A。;Pfeiffer,K-P,evtree:R,J Stat Softw文章中全局最优分类和回归树的进化学习,61,1,1-29(2014)
[88] Günlük O,Kalagnanam J,Menickelly M,Scheinberg k(2019)通过整数规划实现分类数据的最优决策树。arXiv:1612.03225v3
[89] 冈宁,D。;Aha,DW,DARPA的可解释人工智能程序,AI Mag,40,2,44-58(2019)
[90] 盖恩,I。;Elisseeff,A.,《变量和特征选择简介》,J Mach Learn Res,31157-1182(2003)·Zbl 1102.68556号
[91] 哈斯蒂,T。;Rosset,S。;朱,J。;Zou,H.,多类AdaBoost,Stat接口,2,3,349-360(2009)·Zbl 1245.62080号
[92] 哈斯蒂,T。;蒂布希拉尼,R。;Friedman,J.,《统计学习的要素》(2009),纽约:施普林格出版社,纽约·Zbl 1273.62005年
[93] 哈斯蒂,T。;蒂布希拉尼,R。;Wainwright,M.,《稀疏性统计学习:套索和概括》(2015),霍博肯:CRC出版社,霍博恩·Zbl 1319.68003号
[94] 霍夫曼(JM Hofman);Sharma,A。;DJ Watts,《社会系统中的预测和解释》,《科学》,355、6324、486-488(2017)
[95] Holter S、Gomez O、Bertini E(2018)FICO可解释机器学习挑战。https://community.fico.com/s/explanable-machine-learning挑战
[96] Höppner S、Stripling E、Baesens B、vanden Broucke S、Verdonck T(2020)《客户流失预测的利润驱动决策树》。欧洲运营研究杂志284(3):920-933·Zbl 1441.62739号
[97] 胡,X。;鲁丁,C。;Seltzer,M.,最优稀疏决策树,Adv Neural Inf Process Syst,32,7265-7273(2019)
[98] Hyafil,L。;Rivest,RL,《构建最优二叉决策树是NP-完全的》,Inf Process Lett,5,1,15-17(1976)·Zbl 0333.68029号
[99] Iosifidis V,Ntousi E(2019)Adafair:累积公平自适应增强。收录:第28届ACM信息和知识管理国际会议记录,CIKM’19,第781-790页,美国纽约州纽约市,计算机协会
[100] Irsoy O,Y'ldóz OT,Alpaydón E(2012)软决策树。摘自:《第21届模式识别国际会议论文集》(ICPR2012),第1819-1822页
[101] Izza Y,Ignatiev A,Marques Silva J(2020)关于解释决策树。arXiv:2010.11034年
[102] Jakaitiene A、Sangiovanni M、Guarracino MR、Pardalos PM(2016)基因组数据的多维标度,第129-139页。施普林格国际出版公司,Cham·Zbl 1359.62478号
[103] Jung J、Concannon C、Shroff R、Goel S、Goldstein DG(2017)为复杂决策制定简单规则。哈佛商业评论2017:1
[104] Jung,J。;Concannon,C。;Shroff,R。;高尔,S。;Goldstein,DG,《指导专家分类的简单规则》,J R Stat Soc Ser A(Stat Soc),183,3,771-800(2020)
[105] 北卡罗迪。;Li,J.,《基于人工智能的网络威胁前景:一项调查》,ACM Compute Surv(CSUR),53,1,1-34(2020)
[106] 高,H-P;Tang,K.,带标签相关延迟约束的成本敏感决策树归纳,INFORMS J Compute,26,2,238-252(2014)·Zbl 1357.68173号
[107] Karimi A-H、Barthe G、Schölkopf B、Valera I(2020)算法追索权调查:定义、公式、解决方案和前景。arXiv:2010.04050号
[108] Karmy,JP;Maldonado,S.,《欧洲旅游零售业中基于支持向量回归的层次时间序列预测》,专家系统应用,137,59-73(2019)
[109] Kass,GV,《调查大量分类数据的探索性技术》,J R Stat Soc Ser C(应用统计),29,2,119-127(1980)
[110] Katuwal,R。;Suganthan,PN;Zhang,L.,非均匀斜向随机森林,模式识别,99,107078(2020)
[111] Khalil EB、Le Bodic P、Song L、Nemhauser GL、Dilkina BN(2016)《混合整数规划学习分支》。In:AAAI,第724-731页
[112] Kim,H。;Loh,W-Y,无偏多路分裂分类树,美国统计协会杂志,96,454,589-604(2001)
[113] Kleinberg,J。;Lakkaraju,H。;Leskovec,J。;路德维希,J。;Mullainathan,S.,《人类决策和机器预测》,Q J Econ,133,1,237-293(2018)·Zbl 1405.91119号
[114] Koenker,R。;Hallock,KF,分位数回归,《经济展望杂志》,15,4,143-156(2001)
[115] Kriegler B,Berk R(2010)《洛杉矶无家可归者的小面积估算:成本敏感随机梯度增强的应用》。应用统计年鉴2010:1234-1255·Zbl 1202.62178号
[116] 李,X-B;斯威加特,JR;滕,裕廊集团;吉咪·多诺霍(JM Donohue);Thombs,洛杉矶;Wang,SM,使用线性判别和禁忌搜索的多元决策树,IEEE Trans-Syst Man Cybern-Part A Syst Hum,33,2,194-205(2003)
[117] Liberti,L.,《距离几何与数据科学》,TOP,28,271-339(2020)·Zbl 1511.51006号
[118] Lin J,Zhong C,Hu D,Rudin C,Seltzer M(2020)广义和可扩展最优稀疏决策树。arXiv:2006.08690年
[119] 刘,H。;侯赛因,F。;Tan,C。;Dash,M.,《离散化:一种启用技术》,《Data Min Knowl Disc》,第6、4、393-423页(2002年)
[120] Lodi,A。;Zarpellon,G.,《关于学习和分支:一项调查》,TOP,25,2,207-236(2017)·兹比尔1372.90003
[121] Loh,W-Y,五十年分类和回归树,《国际统计评论》,82,3,329-348(2014)·Zbl 1416.62347号
[122] 卢,W-Y;Shih,Y-S,分类树的分割选择方法,Stat Sin,7,4,815-840(1997)·Zbl 1067.62545号
[123] Louppe G,Wehenkel L,Sutera A,Geurts P(2013)了解随机树木森林中的变量重要性。高级神经信息处理系统2013:431-439
[124] Lucic A、Oosterhuis H、Haned H、de Rijke M(2020)《焦点:树集合的灵活优化反事实解释》。arXiv:1911.12199年
[125] 伦德伯格,SM;埃里昂,G。;陈,H。;DeGrave,A。;普鲁特金,JM;奈尔,B。;Katz,R。;Himmelfarb,J。;北班萨尔。;Lee,S-I,《利用树木的可解释人工智能从局部解释到全球理解》,《自然·马赫智能》,第2期,第1期,第2522-5839页(2020年)
[126] Lundberg SM、Erion G、Lee S-I(2018)树系综的一致个性化特征归因。arXiv:1802.03888
[127] Lundberg SM,Lee S-I(2017)解释模型预测的统一方法。高级神经信息处理系统2017:4765-4774
[128] Martens,D。;Baesens,B。;Gestel,电视;Vantheenen,J.,《使用支持向量机规则提取的可理解信用评分模型》,《欧洲运营研究杂志》,183,3,1466-1476(2007)·Zbl 1278.91177号
[129] Martens,D。;Provost,F.,解释数据驱动的文件分类,MIS Q,38,1,73-99(2014)
[130] Martínez Torres J,Iglesias Comesaña C,García-Nieto PJ(2019)应用于网络安全的机器学习技术。国际机器学习网络杂志10(10):2823-2836
[131] Meinshausen,N.,《节点收获》,《Ann Appl Stat》,第4期,第2049-272页(2010年)·Zbl 1220.62084号
[132] Menze BH、Kelm BM、Splitthoff DN、Koethe U、Hamprecht FA(2011)《斜向随机森林研究》。收录:Gunopulos D、Hofmann T、Maleba D、Vazirgiannis M(编辑)数据库中的机器学习和知识发现,第453-469页
[133] Miller,T.,《人工智能的解释:来自社会科学的见解》,Artif Intell,267,1-38(2019)·Zbl 1478.68274号
[134] Miron M、Tolan S、Gómez E、Castillo C(2020)《解决数据驱动决策中群体公平性的多重指标》。arXiv公司:2003.04794
[135] MišićVV(2020)《树系群优化》。运营研究68(5):1605-1624·Zbl 1457.90098号
[136] 莫勒,A。;Tutz,G。;Gerthiss,J.,《功能协变量的随机森林》,《化学杂志》,30,12,715-725(2016)
[137] 莫尔纳,C。;卡萨利基奥,G。;Bischl,B.,iml:可解释机器学习的R包,J Open Sourc Softw,3,26786(2018)
[138] Molnar C、Casalicchio G、Bischl B(2020)可解释机器学习——简史、现状和挑战。arXiv:2010.09337号
[139] Mothillal RK,Sharma A,Tan C(2020)通过不同的反事实解释解释机器学习分类器。摘自:《2020年公平、问责制和透明度会议记录》,第607-617页
[140] 默西,SK;Kasif,S。;Salzberg,S.,《斜决策树归纳系统》,J Artif Intell Res,2,1-32(1994)·Zbl 0900.68335号
[141] Narodytska N,Ignatiev A,Pereira F,Marques-Silva J(2018)使用SAT学习最优决策树。摘自:第二十七届国际人工智能联合会议论文集(IJCAI-18),第1362-1368页·Zbl 1511.68249号
[142] Nijssen,S。;Fromont,E.,从项集格中归纳基于约束的最优决策树,Data Min Knowl Disc,21,1,9-51(2010)
[143] Norouzi M、Collins M、Johnson MA、Fleet DJ、Kohli P(2015)《决策树的高效非贪婪优化》。高级神经信息处理系统2015:1729-1737
[144] Orsenigo,C。;Vercellis,C.,基于最小特征离散支持向量机的多元分类树,IMA J Manag Math,14,3,221-234(2003)·Zbl 1115.90406号
[145] 奥斯卡尔斯多蒂尔M、艾哈迈德W、安东尼奥K、贝森斯B、丹迪维尔R、多纳斯T、雷恩肯斯T(2020)《保险监督欺诈检测的社会网络分析》。arXiv:2009.08313
[146] Palagi,L.,深度网络回归中的全局优化问题:概述,J Global Optim,73,2,239-277(2019)·兹比尔1421.90154
[147] JM Pangilinan;Janssens,GK,进化算法中斜决策树的帕累托最优,J Global Optim,51,2,301-311(2011)·Zbl 1230.90171号
[148] Pardalos PM、Boginski VL、Vazacopoulos A(eds)(2007),《生物医学中的数据挖掘》。Springer优化及其应用·Zbl 1130.92034号
[149] Pfetsch ME,Pokutta S(2020)IPBoost—通过整数规划实现非凸增压。arxiv:2002.04679号
[150] 皮卡利,V。;Sciandone,M.,非线性优化和支持向量机,4OR,16,2,111-149(2018)·Zbl 1398.65126号
[151] Pospisil T,Lee AB(2019)(f)RFCDE:条件密度估计和功能数据的随机森林。arXiv公司:1906.07177
[152] 昆兰JR(1993)C4.5:机器学习程序。圣马特奥摩根·考夫曼
[153] 拉赫曼,R。;德鲁巴,SR;Ghosh,S。;Pal,R.,《功能随机森林及其在剂量反应预测中的应用》,科学代表,9,1,1-14(2019年)
[154] Ramon Y,Martens D,Provost F,Evgeniou T(2020)行为数据和文本数据实例级反事实解释算法的比较:SEDC,LIMEC和SHAP-C.高级数据分析分类2020:5·兹比尔1474.90384
[155] Ribeiro MT、Singh S、Guestrin C(2016)《为什么我应该信任你?:解释任何分类器的预测。摘自:第22届ACM SIGKDD知识发现和数据挖掘国际会议记录,第1135-1144页
[156] 里奇韦,G.,《预测的陷阱》,《国家司法研究所杂志》,271,34-40(2013)
[157] 罗梅,A。;Ruggieri,S.,《歧视分析的多学科调查》,《Knowl Eng Rev》,29,5,582-638(2014)
[158] Rudin,C.,停止解释高风险决策的黑箱机器学习模型,转而使用可解释模型,《自然·马赫智能》,第1期,第5期,第206-215页(2019年)
[159] 鲁丁,C。;埃尔特金。,通过数学编程学习定制和优化的规则列表,《数学程序计算》,10,4,659-702(2018)·Zbl 1411.90234号
[160] Ruggieri,S.,《决策树中特征选择的完全搜索》,J Mach Learn Res,20,104,1-34(2019)·Zbl 1446.68141号
[161] Saha A、Basu S、Datta A(2020)依赖数据的随机森林。arXiv:2007.15421号
[162] 萨维克P、 Klaschka J,Antoch J(2000)最优分类树。收件人:COMPSTAT,第427-432页,Springer·兹比尔1455.62128
[163] Scornet,E.,《关于随机森林的渐近性》,《多元分析杂志》,146,72-83(2016)·Zbl 1337.62063号
[164] Scornet,E。;Biau,G。;Vert,J-P,《随机森林的一致性》,Ann Stat,43,4,1716-1741(2015)·Zbl 1317.62028号
[165] 谢拉利,HD;Hobeika,AG公司;Jeenanunta,C.,决策树的最优约束剪枝策略,INFORMS J Compute,21,1,49-61(2009)·Zbl 1243.91029号
[166] Sokol K,Flach PA(2019)《机器学习预测的反事实解释:人工智能安全的机遇和挑战》。输入:SafeAI@AAAI
[167] 西苏伊拉德-曼达。;戴维斯,R。;鲁丁,C。;金、红。;李邦,DJ;Swenson,R。;价格,CC;拉马尔,M。;Penney,DL,《从数字时钟绘制测试中的细微行为中学习认知条件的分类模型》,《马赫学习》,102,3,393-441(2016)
[168] Street,WN,使用非线性规划的倾斜多类别决策树,INFORMS J Comput,17,1,25-31(2005)·Zbl 1239.68064号
[169] 斯特罗布尔,C。;布列斯特,A-L;Kneib,T。;奥古斯丁,T。;Zeileis,A.,随机森林的条件变量重要性,BMC Bioinf,9,1,307(2008)
[170] 苏,X。;王,M。;Fan,J.,最大似然回归树,J Comput Graph Stat,13,3,586-598(2004)
[171] Therneau T,Atkinson B,Ripley B(2015)rpart:递归分区和回归树,2015。R包版本4.1-10
[172] Truong A(2009)通过logistic回归模型快速生长和可解释的斜向树。致:英国牛津大学博士论文
[173] 堪萨斯州Tuncel;Baydogan,MG,多元时间序列建模的自回归森林,模式识别,73,202-215(2018)
[174] Turny,PD,《成本敏感分类:混合遗传决策树归纳算法的实证评估》,J Artif Intell Res,2369-409(1995)
[175] Ustun,B。;Rudin,C.,优化医疗评分系统的超解析线性整数模型,Mach Learn,102,3,349-391(2016)·Zbl 1406.62144号
[176] Van Vlasselaer,V。;Eliassi-Rad,T。;Akoglu,L。;斯诺克,M。;贝森、B、GOTCHA!《基于网络的社会保障欺诈欺诈检测》,《管理科学》,63,9,3090-3110(2017)
[177] Verhaeghe H,Nijssen S,Pesant G,Quimper C-G,Schaus P(2019)使用约束规划学习最优决策树。参加:第25届约束规划原理与实践国际会议(CP2019)
[178] Verma S、Dickerson J、Hines K(2020)《机器学习的反事实解释:综述》。arXiv:2010.10596号
[179] Verwer S,Zhang Y(2017)使用整数优化学习具有灵活约束和目标的决策树。在Salvagnin D,Lombardi M(编辑)中,人工智能和或技术在约束编程中的集成:第14届国际会议,2017年CPAIOR,意大利帕多瓦。诉讼程序,第94-103页·Zbl 1489.68259号
[180] Verwer,S。;Zhang,Y。;Ye,QC,《使用回归树和线性模型作为整数程序的拍卖优化》,Artif Intell,244368-395(2017)·Zbl 1404.68122号
[181] Verwer,S。;Zhang,Y。;Ye,QC,使用二进制线性程序公式学习最佳分类树,Proc AAAI Conf Artif Intel,331625-1632(2019)
[182] 维达尔·T、帕切科·T、希弗·M(2020)《再生树群》。arXiv:2003.1132号
[183] Visani G,Bagli E,Chesani F,Poluzzi A,Capuzzo D(2020)LIME的统计稳定性指数:获得机器学习模型的可靠解释。arXiv:20011.11757年
[184] Wachter,S。;米特尔斯塔特,B。;Russell,C.,《不打开黑匣子的反事实解释:自动决策和GDPR》,《哈佛法律技术杂志》,31841-887(2017)
[185] Wager,S。;Athey,S.,《使用随机森林评估和推断异质处理效应》,美国统计协会期刊,113,523,1228-1242(2018)·Zbl 1402.62056号
[186] J·韦斯顿。;Elisseeff,A。;Schölkopf,B。;Tipping,M.,《零范数与线性模型和核方法的使用》,J Mach Learn Res,31439-1461(2003)·Zbl 1102.68605号
[187] 维克拉马拉奇特区;罗伯逊,BL;Reale,M。;价格,CJ;Brown,J.,HHCART:斜决策树,《计算统计数据分析》,96,12-23(2016)·Zbl 1468.62209号
[188] Wickramasuriya,SL;Athanasopoulos,G。;Hyndman,RJ,通过轨迹最小化实现分层和分组时间序列的最优预测协调,美国统计协会,114,526,804-819(2019)·Zbl 1420.62402号
[189] Yang,L。;刘,S。;佐卡,S。;Papageorgiou,LG,使用数学编程的回归树方法,专家系统应用,78,347-357(2017)
[190] Yang Y,Garcia Morillo I,Hospedales TM(2018)深度神经决策树。arXiv公司:1806.06988
[191] Yu J,Ignatiev A,Stuckey PJ,Le Bodic P(2020)利用SAT.arXiv计算最优决策集:2007.15140
[192] Zafar MB、Valera I、Gomez Rodriguez M、Gummadi KP(2017)《公平约束:公平分类机制》。摘自:《人工智能与统计》,第962-970页,PMLR
[193] Zantedeschi V,Kusner MJ,Niculae V(2020)通过稀疏松弛学习二叉树。arXiv:2010.04627号
[194] 曾杰。;Ustun,B。;Rudin,C.,《累犯预测的可解释分类模型》,J R Stat Soc Ser A,180,3,689-722(2017)
[195] Zhang Y,Song K,Sun Y,Tan S,Udell M(2019)你为什么要相信我的解释?理解LIME解释中的不确定性。arXiv:1904.12991年
[196] Zhu H,Murali P,Phan DT,Nguyen LM,Kalagnanam JR(2020)基于MIP的学习最优多元决策树的可扩展方法。高级神经信息处理系统2020:33
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。