×

基于核的半函数线性回归的最优预测。 (英语) Zbl 07841971号

摘要:本文提出了一种新的半函数线性模型预测方法,该模型由函数分量和非参数分量组成。该研究建立了该模型的最小-最大最优收敛速度,揭示了函数分量可以以与非参数分量已知相同的最小-最大收敛速度学习,反之亦然。这一结果可以通过在再生核希尔伯特空间框架内使用双惩罚最小二乘法估计函数和非参数分量来实现。由于代表定理,该方法还提供了其他所需的特性,包括无需迭代的算法效率。我们还提供了数值研究,以证明该方法的有效性并验证理论分析。

MSC公司:

68问题32 计算学习理论
68T05型 人工智能中的学习和自适应系统
41A25型 收敛速度,近似度
PDF格式BibTeX公司 XML格式引用

参考文献:

[1] Ramsay,J.O.,《当数据是函数时,心理测量学》47(4)(1982)379-396·Zbl 0512.62004号
[2] Ramsay,J.O.和Dalzell,C.J.,《功能数据分析的一些工具》,J.R.Stat.Soc.,B:Stat.Methodol.53(3)(1991)539-572·Zbl 0800.62314号
[3] Fan,J.和Zhang,W.,变系数模型中的统计估计,Ann.Stat.27(5)(1999)1491-1518·Zbl 0977.62039号
[4] Huang,J.Z.,Wu,C.O.和Zhou,L.,用于重复测量分析的变系数模型和基函数近似,Biometrika89(1)(2002)111-128·Zbl 0998.62024号
[5] Chiou,J.M.、Müller,H.G.和Wang,J.L.,《功能反应模型》,《Stat.Sin.14(3)(2004)675-693·Zbl 1073.62098号
[6] Hall,P.和Horowitz,J.L.,《函数线性回归的方法和收敛速度》,《Ann.Stat.35(1)(2007)70-91·兹比尔1114.62048
[7] Yuan,M.和Cai,T.T.,《函数线性回归的再生核希尔伯特空间方法》,《Ann.Stat.38(6)》(2010)3412-3444·Zbl 1204.62074号
[8] Reiss,P.T.,Huang,L.和Mennes,M.,《带惩罚基扩张的快速函数标度回归》,《国际生物统计杂志》6(1)(2010)28。
[9] Cai,T.T.和Yuan,M.,Minimax和函数线性回归的自适应预测,美国统计协会107(499)(2012)1201-1216·Zbl 1443.62196号
[10] Chen,Y.,Goldsmith,J.和Ogden,R.T.,函数-尺度回归中的变量选择,Stat5(1)(2016)88-101。
[11] Fan,J.,Lv,F.和Shi,L.,基于功能预测因子估计个体化治疗规则的RKHS方法,数学。已找到。计算2(2)(2019)169-181·Zbl 1486.68149号
[12] Lv,S.,He,X.和Wang,J.,部分函数线性模型的基于核的估计:最小极大速率和随机草图,J.Mach。学习。第24(55)(2023)号决议1-38。
[13] Yao,F.,Müller,H.G.和Wang,J.L.,纵向数据的函数线性回归分析,《统计年鉴》33(6)(2005)2873-2903·Zbl 1084.62096号
[14] Cardot,H.和Sarda,P.,《功能数据的线性回归模型》,载于《半参数学的艺术》(Physica-Verlag,海德堡,2006),第49-66页·Zbl 1271.62145号
[15] Cai,T.T.和Hall,P.,《函数线性回归预测》,《统计年鉴》34(5)(2006)2159-2179·Zbl 1106.62036号
[16] Aneiros-Pérez,G.和Vieu,P.,半功能偏线性回归,Stat.Probab。Lett.76(11)(2006)1102-1110·Zbl 1090.62036号
[17] Aneiros-Pérez,G.和Vieu,P.,《非参数时间序列预测:半函数部分线性建模》,J.Multivar。分析99(5)(2008)834-857·Zbl 1133.62075号
[18] Shang,H.L.,误差密度未知的半函数偏线性回归模型的贝叶斯带宽估计,计算。统计数据29(3)(2014)829-848·Zbl 1306.65133号
[19] Shin,H.,部分函数线性回归,J.Stat.Plan。推断139(10)(2009)3405-3418·Zbl 1168.62358号
[20] Kong,D.,Xue,K.,Yao,F.和Zhang,H.H.,高维部分功能线性回归,《生物统计学》103(1)(2016)147-159·1452.62500兹罗提
[21] Cui,X.,Lin,H.和Lian,H.,再生核Hilbert空间中的部分函数线性回归,计算。统计数据分析150(2020)106978·Zbl 1510.62171号
[22] Xia,Y.,Hou,Y.、He,X.和Lv,S.,具有高维标量协变量的部分线性函数模型的学习速率,Commun。纯应用程序。分析19(8)(2020)3917-3932·Zbl 1442.62774号
[23] Lian,H.,函数偏线性模型,J.非参数统计23(1)(2011)115-128·Zbl 1359.62157号
[24] Zhou,J.和Chen,M.,半函数线性模型的样条估计,统计概率。Lett.82(3)(2012)505-513·Zbl 1237.62051号
[25] Boente,G.,Salibian-Barrera,M.和Vena,P.,半功能线性回归模型的稳健估计,计算。统计数据分析152(2020)107041·兹比尔1510.62170
[26] van de Geer,S.和Muro,A.,《成分具有不同平滑度的加性模型中的惩罚最小二乘估计》,J.Stat.Plan。推断162(2015)43-61·Zbl 1328.62256号
[27] Wahba,G.,《观测数据的样条模型》(工业和应用数学学会,1990年)·Zbl 0813.62001号
[28] Müller,P.和van de Geer,S.,《高维部分线性模型》,Scand。《J Stat.42(2)》(2015)580-608·Zbl 1364.62196号
[29] 郭坤,基于核函数线性回归的统计学习,香港浸会大学博士论文(2022)。
[30] van der Vaart,A.W.和Wellner,J.A.,《弱收敛和经验过程:统计应用》(Springer,纽约,1996)·兹比尔0862.60002
[31] Ledoux,M.和Talagrand,M.,《巴拿赫空间中的概率:等高线和过程》,第23卷(Springer Berlin,Heidelberg,1991)·Zbl 0748.60004号
[32] 马,L.,石,L.和吴,Z.,Nyström基于系数的正则化回归子抽样方法,逆问题35(7)(2019)075002·Zbl 1493.62208号
[33] Chen,X.、Tang,B.、Fan,J.和Guo,X.,《函数数据学习的在线梯度下降算法》,J.Complex.70(2022)101635·Zbl 07502618号
[34] Mao Y.Mao和Z.C.Guo,函数数据的在线正则化学习算法,预印本(2022),arXiv:2211.13549。
[35] Guo,X.,Lin,J.和Zhou,D.X.,Hilbert空间中随机Kaczmarz算法的收敛速度,应用。计算。哈蒙。分析61(2022)288-318·Zbl 1497.65090号
[36] Guo,X.,Guo,Z.C.和Shi,L.,功能性在线学习算法的能力依赖性分析,应用。计算。哈蒙。分析67(2023)101567·Zbl 1532.62032号
[37] Hu,T.,Fan,J.和Xiang,D.H.,分布式多属性正则化成对学习的收敛性分析,Anal。申请18(1)(2020)109-127·Zbl 1435.68262号
[38] Lv,F.和Fan,J.,高斯和相关熵损失下的最优学习,Ana。申请19(1)(2021)107-124·Zbl 1462.68159号
[39] 刘建军,石立林,基于分治核函数线性回归的统计最优性,预印本(2022),arXiv:2211.10968。
[40] 郭振聪,胡,T.和石,L.,分布式谱成对排序算法,逆问题39(2)(2022)025003·Zbl 1532.68079号
[41] Wei,L.Y.,Yu,Z.和Zhou,D.X.,最小化非光滑凸损失函数的联合学习,数学。已找到。计算6(4)(2023)753-770。
[42] Feng,Y.,Fan,J.和Suykens,J.,模态回归的统计学习方法,J.马赫。学习。第21(1)号决议(2020)25-59·Zbl 1497.68418号
[43] Feng,Y.和Wu,Q.,矩条件下的学习,应用。计算。哈蒙。分析49(2)(2020)495-520·Zbl 1442.62150号
[44] Guo,Z.C.,Christmann,A.和Shi,L.,稳健在线学习的最佳性,发现。计算。数学。(2023), https://doi.org/10.1007/s10208-023-09616-9。
[45] Zhang,C.,Zhu,L.和Shen,Y.,大维数据回归和分类方法中的稳健估计,马赫数。学习。112(9)(2023)3361-3411·Zbl 1518.62019号
[46] Feng,H.,Hou,S.,Wei,L.Y.和Zhou,D.X.,CNN中文文本可读性模型,数学。已找到。计算5(4)(2022)351-362。
[47] Pineda,A.F.L.和Petersen,P.C.,深度神经网络能够稳定地解决高维、噪声、非线性逆问题,Ana。申请21(1)(2023)49-91·Zbl 1511.41010号
[48] Mao,T.,Shi,Z.和Zhou,D.X.,用深度卷积神经网络逼近多特征函数,Ana。申请21(1)(2023)93-125·Zbl 07652562号
[49] Song,L.,Fan,J.,Chen,D.R.和Zhou,D.X.,使用深度ReLU网络逼近非线性泛函,J.Fourier Anal。申请29(4)(2023)50·Zbl 07727372号
[50] Song,L.,Liu,Y.,Fan,J.和Zhou,D.X.,利用深度ReLU网络逼近光滑泛函,神经网络.166(2023)424-436。
[51] Bühlmann,P.和van de Geer,S.,《高维数据统计:方法、理论和应用》(Springer Berlin,Heidelberg,2011)·Zbl 1273.62015年
[52] Massart,P.,《浓度不平等和模型选择》(Springer Berlin,Heidelberg,2007)·Zbl 1170.60006号
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。