×

标度函数回归中估计量的选择和组合。 (英语) Zbl 1471.62076号

摘要:具有连续结果的标量-函数回归问题在许多情况下自然会出现,并且现在存在大量的估计方法。尽管在回归模型假设、调整参数选择和功能结构合并方面存在明显差异,但对任何感兴趣的数据集应用单一方法仍然很常见。在本文中,我们基于最小化最终估计器的交叉验证预测误差,开发了在函数回归上的连续标量背景下用于估计器选择和组合的工具。函数和高维回归方法的广泛集合被用作候选估计量的库。我们发现,任何一种方法相对于其他方法的性能在不同数据集之间都会有显著差异,但所提议的交叉验证程序始终是表现最佳的方法。使用公开可用的基准数据集进行了四次实际数据分析;实现这些分析并促进在未来数据集上应用所建议方法的代码在web补充中提供。

MSC公司:

62-08 统计问题的计算方法
62G08号 非参数回归和分位数回归
62兰特 功能数据分析
PDF格式BibTeX公司 XML格式引用
全文: DOI程序

参考文献:

[1] Ait-Saídi,A。;费拉蒂,F。;Kassa,R。;Vieu,P.,单功能指数模型中的交叉验证估计,统计学,6475-494,(2008)·Zbl 1274.62519号
[2] 阿马托,美国。;安东尼亚迪斯,A。;De Feis,I.,《函数回归的降维及其应用》,计算统计与数据分析,502422-2446,(2006)·Zbl 1445.62078号
[3] Aneiros-Perez,G。;Vieu,P.,《半函数偏线性回归》,《统计与概率快报》,761102-1110,(2006)·Zbl 1090.62036号
[4] Aneiros-Perez,G。;Vieu,P.,《非参数时间序列预测:半函数部分线性建模》,《多元分析杂志》,99834-857,(2008)·Zbl 1133.62075号
[5] 博加德,C。;Thodberg,H.H.,光谱的最佳最小神经解释,分析化学,64,545-551,(1992)
[6] Breiman,L.,《不稳定和稳定的启发式》,《统计年鉴》,242350-2383,(1996)·Zbl 0867.62055号
[7] Breiman,L.,《随机森林》,机器学习,24,123-140,(2001)·Zbl 0858.68080号
[8] 布雷曼,L。;弗赖德曼,J.H。;Olshen,R.A。;Stone,C.J.,《分类和回归树》,(1984),加利福尼亚州沃兹沃斯·贝尔蒙特·Zbl 0541.62042号
[9] Cardot,H。;费拉蒂,F。;Sarda,P.,函数线性模型的样条估计,统计Sinica,13,571-591,(2003)·Zbl 1050.62041号
[10] Chen,H.,投影寻踪型回归模型的估计,《统计学年鉴》,19142-157,(1991)·Zbl 0736.62055号
[11] 陈,D。;霍尔,P。;Müller,H.-G.,具有非参数链接的单指数和多指数函数回归模型,《统计年鉴》,391720-1747,(2011)·Zbl 1220.62040号
[12] Crainiceanu,C.、Reiss,P.、Goldsmith,J.、Huang,L.、Huo,L.和Scheipl,F.,2012年。退款:与功能数据回归。R包版本0.1-6。
[13] 杜多瓦,S。;van der Laan,M.J.,估计器选择和性能评估中交叉验证风险估计的渐近性,统计方法,2131-154,(2005)·Zbl 1248.62004号
[14] 艾尔斯,P.H.C。;李,B。;Marx,B.D.,用单指标信号回归进行多元校准,化学计量学和智能实验室系统,96,196-202,(2009)
[15] Febrero-Bande,M。;Oviedo de la Fuente,M.,《功能数据分析中的统计计算:R包fda.usc》,《统计软件杂志》,51,1-28,(2012)
[16] 费拉蒂,F。;戈亚,A。;Salinelli,E。;Vieu,P.,函数投影寻踪回归,TEST,22293-320,(2013)·Zbl 1367.62117号
[17] 费拉蒂,F。;Laksaci,A。;A.塔吉。;Vieu,P.,《功能反应的核回归》,《电子统计杂志》,第5期,第159-171页,(2011年)·Zbl 1274.62281号
[18] 费拉蒂,F。;Van Keilegom,I。;Vieu,P.,《反应和预测均为函数时的回归》,《多元分析杂志》,109,10-28,(2012)·Zbl 1241.62054号
[19] 费拉蒂,F。;Vieu,P.,《非参数函数数据分析:理论与实践》,(2006),纽约施普林格出版社·Zbl 1119.62046号
[20] 费拉蒂,F。;Vieu,P.,函数数据的加性预测和增强,计算统计学和数据分析,531400-1413,(2009)·Zbl 1452.62989号
[21] 弗伦德,Y。;Schapire,R.,《在线学习的决策理论概括及其在助推中的应用》(计算学习理论,(1995),施普林格-柏林,海德堡),23-37
[22] 弗里德曼,J。;哈斯蒂,T。;Tibshirani,R.,通过坐标下降广义线性模型的正则化路径,统计软件杂志,33,1-22,(2010)
[23] 戈德史密斯,J。;鲍勃,J。;克雷尼切努,C.M。;Caffo,B。;Reich,D.,惩罚函数回归,计算与图形统计杂志,20830-851,(2011)
[24] 戈德史密斯,J。;Crainiceanu,C.M。;Caffo,B。;Reich,D.,多发性硬化患者白质束特征的惩罚函数回归分析,NeuroImage,57,431-439,(2011)
[25] 詹姆斯·G·M。;Silverman,B.,功能自适应模型估计,美国统计协会杂志,100565-576,(2005)·Zbl 1117.62364号
[26] 詹姆斯,G.M。;Wang,J。;Zhu,J.,《可解释的函数线性回归》,《统计年鉴》,第37期,第2083-2108页,(2009年)·Zbl 1171.62041号
[27] Krämer,N.,Boulesteix,A.-L.,2011年。ppls:惩罚偏最小二乘法。R软件包版本1.05。
[28] Krämer,N。;布列斯特,A.-L。;Tutz,G.,Penized偏最小二乘法及其在b样条变换和函数数据中的应用,化学计量学和智能实验室系统,94,60-69,(2008)
[29] Lee,E.R。;Park,B.U.,函数线性回归中的稀疏估计,多元分析杂志,105,1-17,(2011)·Zbl 1236.62032号
[30] Liaw,A。;Wiener,M.,《随机森林分类与回归》,R News,2,18-22,(2002)
[31] Lindquist,M。;McKeague,I.,《使用Brownian-like预测因子的Logistic回归》,美国统计协会杂志,1041575-1585,(2009)·Zbl 1205.62125号
[32] 马克思,B.D。;Eilers,P.H.C.,采样信号和曲线的广义线性回归:(P)样条方法,技术计量学,41,1-13,(1999)
[33] 麦克莱恩,M.W。;胡克,G。;A.-M.施泰克。;Scheipl,F。;Ruppert,D.,《泛函广义加性模型》,《计算与图形统计杂志》,(2013年),(出版中)
[34] 米切尔,T。;Beauchamp,J.,线性回归中的贝叶斯变量选择,美国统计协会杂志,83,1023-1032,(1988)·兹比尔0673.62051
[35] K.M.马伦、I.H.M.范斯托库姆,2012年。nnls:非负最小二乘的Lawson-Hanson算法(nnls)。R包版本1.4。
[36] Polley,E.C.,van der Laan,M.J.,2010年。预测超级学习者,COBRA。
[37] 拉姆齐,J.O。;Silverman,B.W.,《功能数据分析》(2005),纽约斯普林格出版社·Zbl 1079.62006号
[38] Ramsay,J.O.,Wickham,H.,Graves,S.,Hooker,G.,2012年。fda:功能数据分析。R包版本2.3.2。
[39] 伦道夫,T.W。;哈雷兹拉克,J。;Feng,Z.,函数线性模型的结构化惩罚——回归的部分经验特征向量,《电子统计杂志》,6,323-353,(2012)·Zbl 1274.62455号
[40] 莱斯,P.T。;Huang,L.,带惩罚基扩展的快速函数标度回归,国际生物统计杂志,6,(2010),第28条
[41] 赖斯,P。;Ogden,R.,函数主成分回归和函数偏最小二乘,美国统计协会杂志,102984-996,(2007)·Zbl 1469.62237号
[42] 里奇韦,G.,2013年。gbm:广义boost回归模型。R软件包版本2.0-8。
[43] Scheipl,F.,Spikelabgam:R中广义加性混合模型的贝叶斯变量选择、模型选择和正则化,统计软件杂志,43,3283-3299,(2011)
[44] Scheipl,F。;Fahrmeir,L。;Kneib,T.,《结构化加性回归模型中函数选择的尖峰和板先验》,美国统计协会杂志,1071518-1532,(2012)·Zbl 1258.62082号
[45] Scheipl,F.,Staicu,A.-M.,Greven,S.,2013年。功能添加剂混合模型(提交出版)。
[46] 苏肯斯,J.A.K。;Vandewalle,J.,最小二乘支持向量机分类器,《神经处理快报》,9,293-300,(1999)
[47] 范德拉恩,M.J。;Dudoit,S.,《估计器选择的统一交叉验证方法和通用交叉验证自适应ε-网估计器:有限样本预言不等式和示例》。技术报告13,(2003)
[48] 范德拉恩,M.J。;Dudoit,S。;van der Vaart,A.W.,交叉验证自适应ε网估计器,统计与决策,24,373-395,(2006)·Zbl 1111.62003号
[49] 范德拉恩,M.J。;波利,E.C。;Hubbard,A.E.,超级学习者,遗传学和分子生物学中的统计应用,6,(2007)·Zbl 1166.62387号
[50] Wolpert,D.H.,《堆叠泛化》,神经网络,5241-259,(1992)
[51] Wood,S.N.,半参数广义线性模型的快速稳定限制最大似然和边际似然估计,英国皇家统计学会杂志:B辑,73,3-36,(2011)·Zbl 1411.62089号
[52] Woodard,D.B。;Crainiceanu,C.M。;Ruppert,D.,《函数预测回归的分层自适应回归核》,《计算与图形统计杂志》,(2013年),(出版中)
[53] 姚,F。;Müller,H.-G.,函数二次回归,生物统计学,97,49-64,(2010)·兹比尔1183.62113
[54] Zhao,Y。;奥格登,R.T。;Reiss,P.T.,函数线性回归中基于小波的LASSO,计算与图形统计杂志,21,600-617,(2012)
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。