×

近最优非线性回归树。 (英语) Zbl 1525.62030号

摘要:我们提出了在叶节点中使用多项式预测函数的超平面分裂近最优非线性回归树(NNRT),并用随机梯度方法求解。在合成数据上,我们通过实验证明了算法收敛到全局最优。我们在40个实际数据集上比较了NNRT、ORT-LH、多元自适应回归样条(MARS)、随机森林(RF)和XGBoost,并表明总体NNRT比所有其他方法都具有性能优势。

MSC公司:

62年02月 一般非线性回归
60华氏30 随机分析的应用(PDE等)
90立方 非线性规划
PDF格式BibTeX公司 XML格式引用
全文: 内政部

参考文献:

[1] 布雷曼,L。;弗里德曼,J。;斯通,C.J。;Olshen,R.A.,《分类和回归树》(1984),CRC出版社·Zbl 0541.62042号
[2] Bertsimas博士。;Dunn,J.,《最佳分类树》,马赫。学习。,106, 7, 1039-1082 (2017) ·Zbl 1455.68159号
[3] Bertsimas博士。;Dunn,J.,《现代优化视角下的机器学习》(2019),《动态思想》
[4] Dunn,J.,《预测和处方的最优树》(2018),麻省理工学院(博士论文)
[5] Quinlan,J.R.,《连续课堂学习》(第五届澳大利亚人工智能联合会议,第92卷(1992年),新加坡),343-348
[6] 乔杜里,P。;Lo,W.-D。;卢,W.-Y。;杨,C.-C.,广义回归树,统计量。Sinica,公元641-666年(1995年)·兹伯利0824.62060
[7] Hothorn,T.公司。;霍尼克,K。;Zeileis,A.,无偏递归分区:一个条件推理框架,J.Comput。图表。统计人员。,15, 3, 651-674 (2006)
[8] Loh,W.-Y.,无偏变量选择和交互检测的回归压力,统计学。Sinica,361-386(2002)·Zbl 0998.62042号
[9] Kim,H。;卢,W.-Y。;Shih,Y.-S。;Chaudhuri,P.,具有良好预测能力的可视化和可解释回归模型,IIE Trans。,39, 6, 565-579 (2007)
[10] Friedman,J.H.,多元自适应回归样条曲线,《统计年鉴》。,1-67 (1991) ·Zbl 0765.62064号
[11] 哈斯蒂,T。;Tibshirani,R。;Friedman,J.,《统计学习的要素:数据挖掘、推断和预测》(2009),施普林格科学与商业媒体·Zbl 1273.62005年
[12] 杜瓦,D。;Graff,C.,UCI机器学习库(2017)
[13] Bertsimas博士。;Copenhaver,M.S.,线性回归和矩阵回归中稳健化和正则化等价性的表征,欧洲J.Oper。Res.,270,3,931-942(2018)·Zbl 1403.62040号
[14] 博图,L。;Bousquet,O.,《大规模学习的权衡》,(神经信息处理系统进展(2008)),161-168
[15] Bottou,L.,随机梯度下降的大尺度机器学习,(2010年《COMPSTAT学报》,Springer),177-186·Zbl 1436.68293号
[16] D.P.Kingma,J.Ba,Adam:随机优化方法,收录于:国际学习表征会议,2015年。
[17] Bezanson,J。;Edelman,A。;卡宾斯基,S。;Shah,V.B.,Julia:《数值计算的新方法》,SIAM Rev.,59,1,65-98(2017)·Zbl 1356.68030号
[18] Milborrow,M.S.,包“地球”(2019),R软件包
[19] Liaw,A。;Wiener,M.,《随机森林分类与回归》,R News,2,3,18-22(2002)
[20] Chen,T。;Guestrin,C.,Xgboost:一个可扩展的树增强系统,(第22届Acm-Sigkdd知识发现和数据挖掘国际会议论文集(2016),Acm),785-794
此参考列表基于出版商或数字数学图书馆提供的信息。它的项目与zbMATH标识符启发式匹配,并且可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。