×

谱正则化方法的收敛速度:不适定逆问题与统计核学习的比较。 (英语) 兹比尔1456.62089

小结:本文研究了由不适定逆问题理论产生的Hölder型源条件下谱正则化方法的收敛速度与统计核学习产生的收敛速度之间的关系,当样本数n趋于无穷大时。为此,我们在统计学习环境中引入了一类混合估计,其收敛速度具有以下性质:第一,它们与谱方法的收敛速度相等,第二,它们与不适定反问题中的谱正则化速度有关,前提是(n)和(delta)之间存在合适的反比例关系。这一系列估值器允许我们将依赖于(n)的上限利率转换为依赖于(delta)的上限税率,反之亦然,量化其偏差。分析是在一般源条件下进行的,前提是前向算子的秩是有限的和无限的,在后一种情况下,通过不对特征值进行任何假设和假设多项式特征值衰减。

MSC公司:

6220国集团 非参数推理的渐近性质
65J20型 抽象空间中不适定问题的数值解;正规化
68问题32 计算学习理论
PDF格式BibTeX公司 XML格式引用
全文: 内政部

参考文献:

[1] J.Adler和O.Oöktem,使用迭代深度神经网络解决不适定逆问题,逆问题,33(2017),124007·Zbl 1394.92070号
[2] V.Albani、P.Elbau、M.V.de Hoop和O.Scherzer,Hilbert空间中线性反问题的最佳收敛速度结果,Numer。功能。分析。最佳。,37(2016),第521-540页·Zbl 1352.65146号
[3] N.Aronszajn,再生核理论,Trans。阿默尔。数学。《社会学杂志》,68(1950),第337-404页·Zbl 0037.20701号
[4] F.Bauer、S.Pereverzev和L.Rosasco,《学习理论中的正则化算法》,《复杂性杂志》,23(2007),第52-72页·Zbl 1109.68088号
[5] N.Bissantz、T.Hohage、A.Munk和F.Ruymgaart,统计反问题和应用的一般正则化方法的收敛速度,SIAM J.Numer。分析。,45(2007),第2610-2636页,https://doi.org/10.1137/060651884。 ·Zbl 1234.62062号
[6] G.Blanchard和N.Muícke,统计逆学习问题正则化的最佳速率,Found。计算。数学。,18(2018),第971-1013页·Zbl 1412.62042号
[7] A.Boöttcher、B.Hofmann、U.Tautenhahn和M.Yamamoto,不同光滑条件下Tikhonov正则化的收敛速度,应用。分析。,85(2006),第555-578页·Zbl 1110.65041号
[8] A.Caponetto和E.De Vito,正则化最小二乘算法的最优速率,Found。计算。数学。,7(2007),第331-368页·Zbl 1129.68058号
[9] F.Cucker和D.X.Zhou,《学习理论:近似理论观点》,剑桥大学出版社,2007年·Zbl 1274.41001号
[10] E.De Vito、L.Rosasco和A.Caponetto,Tikhonov正则化的离散化误差分析,Anal。申请。(新加坡),4(2006),第81-99页·兹比尔1088.65056
[11] E.De Vito、L.Rosasco、A.Caponetto、U.De Giovannini和F.Odone,作为反问题的示例学习,J.Mach。学习。Res.,6(2005),第883-904页·Zbl 1222.68180号
[12] H.W.Engl、M.Hanke和A.Neubauer,《反问题的正则化》,Springer,Dordrecht,Boston,1996年·Zbl 0859.65054号
[13] J.Flemming,广义Tikhonov正则化和Banach空间中的现代收敛速度理论,Ber。数学。,Shaker,2012年·Zbl 1285.47001号
[14] F.Girosi、M.Jones和T.Poggio,正则化理论和神经网络架构,神经计算。,7(1995年),第219-269页。
[15] S.Guastavino和F.Benvenuto,稀疏泊松回归的一致且数值有效的变量选择方法及其在学习和信号恢复中的应用,统计计算。,29(2019),第501-516页·Zbl 1430.62078号
[16] T.Hastie、R.Tibshirani和J.Friedman,《统计学习的要素》。数据挖掘、推理和预测,Springer Ser。统计人员。,Springer-Verlag,纽约,2001年·Zbl 0973.62007号
[17] B.Hofmann、S.Kindermann和P.Matheí,凸变分正则化中基于惩罚的光滑性条件,J.Inverse Ill-Pose Probl。,27(2019),第283-300页·Zbl 1483.65087号
[18] B.Hofmann和P.Matheí,《一般线性正则化方法的剖面函数分析》,SIAM J.Numer。分析。,45(2007),第1122-1141页,https://doi.org/10.1137/060654530。 ·Zbl 1137.47063号
[19] J.Kaipio和E.Somersalo,统计和计算反问题,应用。数学。科学。160,Springer-Verlag,纽约,2005年·Zbl 1068.65022号
[20] R.A.Kress,《线性积分方程》,施普林格出版社,纽约,2014年·Zbl 1328.45001号
[21] J.Lin和V.Cevher,希尔伯特空间上最小二乘回归谱正则化算法的最优速率,预印本,https://arxiv.org/abs/1801.06720v1, 2018.
[22] L.Lo Gerfo、L.Rosasco、F.Odone、E.De Vito和A.Verri,监督学习的谱算法,神经计算。,20(2008),第1873-1897页·Zbl 1147.68643号
[23] S.Lu和S.V.Pereverzev,病态问题的正则化理论:选定主题,逆病态问题。序列号。58,De Gruyter,2013年·Zbl 1282.47001号
[24] B.A.Mair和F.H.Ruymgaart,希尔伯特量表中的统计逆估计,SIAM J.Appl。数学。,56(1996),第1424-1444页,https://doi.org/10.1137/S00361399994264476。 ·Zbl 0864.62020号
[25] P.Matheí和B.Hofmann,一般源条件如何?,反问题,24(2008),015009·Zbl 1140.47006号
[26] P.Matheí和S.Pereverzev,可变希尔伯特尺度线性不适定问题的离散化策略,反问题,19(2003),第1263-1277页·Zbl 1045.65048号
[27] P.Matheí和S.Pereverzev,《可变希尔伯特尺度下线性不适定问题的几何》,《反问题》,19(2003),第789-803页·Zbl 1026.65040号
[28] P.Matheí和S.Pereverzev,用离散随机噪声数据正则化一些线性不适定问题,数学。公司。,75(2006),第1913-1929页·Zbl 1103.62031号
[29] M.T.McCann、K.H.Jin和M.Unser,成像逆问题的卷积神经网络:综述,IEEE信号处理。Mag.,34(2017),第85-95页。
[30] S.Mendelson和J.Neeman,《内核学习中的正则化》,《统计年鉴》。,38(2010年),第526-565页·Zbl 1191.68356号
[31] V.I.Norkin和M.A.Keyzer,关于核学习估计量的收敛性,SIAM J.Optim。,20(2009),第1205-1223页,https://doi.org/10.1137/070696817。 ·Zbl 1203.68066号
[32] A.Rastogi和S.Sampath,一般源条件下正则化学习算法的最优速率,Front。申请。数学。《统计》,3(2017),3。
[33] S.Smale和D.-X.Zhou,通过积分算子及其近似进行学习理论估计,Constr。约,26(2007),第153-172页·Zbl 1127.68088号
[34] A.J.Smola、B.Schoëlkopf和K.-R.Muëller,正则化算子和支持向量核之间的联系,神经网络。,11(1998年),第637-649页。
[35] B.Sprung和T.Hohage,反问题Bregman迭代变分正则化的高阶收敛速度,数值。数学。,141(2019),第215-252页·Zbl 07006668号
[36] I.Steinwart和A.Christmann,支持向量机,Springer科学与商业媒体,2008年·兹比尔1203.68171
[37] V.Vapnik,《统计学习理论的本质》,Springer Science&Business Media,2013年·Zbl 0934.62009号
[38] C.R.Vogel,反问题的计算方法,前沿应用。数学。23,SIAM,费城,2002年,https://doi.org/10.1137/1.9780898717570。 ·Zbl 1008.65103号
[39] C.Wang和D.-X.Zhou,无界抽样最小二乘正则回归的最优学习率,《复杂性杂志》,27(2011),第55-67页·Zbl 1217.65024号
[40] F.Werner和B.Hofmann,条件稳定性估计下(统计)逆问题的收敛性分析,逆问题,36(2019),015004·兹比尔1485.65059
[41] Y.Yao、L.Rosasco和A.Caponetto,《关于梯度下降学习中的早期停止》,Constr。约,26(2007),第289-315页·Zbl 1125.62035号
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。