×

离散函数空间上多元回归的误差估计。 (英文) Zbl 1403.62058号

摘要:在本文中,我们将讨论回归设置的离散化误差,并根据离散化空间的近似性质导出误差界。此外,我们将指出采样误差和离散化误差是如何相互作用的,以及如何适当地平衡它们。我们将给出两个基于张量积空间(稀疏网格、双曲线交叉)的示例,这两个示例为中等维的大样本集提供了一种合适的方法。

MSC公司:

62G08号 非参数回归和分位数回归
41A25型 收敛速度,近似度
41A63型 多维问题
62甲12 多元分析中的估计
68T05型 人工智能中的学习和自适应系统
PDF格式BibTeX公司 XML格式引用
全文: 内政部

参考文献:

[1] F.Bach、R.Jenatton、J.Mairal和G.Obozinski,{使用稀疏诱导惩罚进行优化},现出版公司,荷兰布雷达,2011年·Zbl 06064248号
[2] P.Binev、A.Cohen、W.Dahmen、R.DeVore和V.Temlyakov,《学习理论的通用算法——第一部分:分段常数函数》,J.Mach。学习。Res.,6(2005),第1297-1321页·兹比尔1191.62068
[3] P.Binev、A.Cohen、W.Dahmen、R.DeVore和V.Temlyakov,{学习理论的通用算法-第二部分:分段多项式函数},Constr。约,26(2007),第127-152页·Zbl 1191.62067号
[4] B.Bohn和M.Griebel,《时间序列预测的自适应稀疏网格方法》,摘自《稀疏网格和应用》,J.Garcke和M.Griebe1编辑,Lect。注释计算。科学。Eng.88,Springer,纽约,2012年,第1-30页。
[5] H.-J.Bungartz和M.Griebel,《数字学报》,{稀疏网格}。,13(2004年),第147-269页·Zbl 1118.65388号
[6] A.Chkifa、A.Cohen、G.Migliorati、F.Nobile和R.Tempone,{带随机评估的离散最小二乘多项式近似-应用于参数和随机椭圆PDEs},ESAIM数学。模型。数字。分析。,49(2015),第815-837页·兹比尔1318.41004
[7] A.Cohen、M.Davenport和D.Leviatan,《关于最小二乘近似的稳定性和准确性》,Found。计算。数学。,13(2013),第819-834页·Zbl 1276.93086号
[8] F.Cucker和S.Smale,《学习的数学基础》,布尔。阿默尔。数学。Soc.,39(2001),第1-49页·兹伯利0983.68162
[9] F.Cucker和D.Zhou,《学习理论》,剑桥大学专著。申请。计算。数学。24,剑桥大学出版社,英国剑桥,2007年·Zbl 1274.41001号
[10] R.DeVore和G.Lorentz,{构造逼近},格兰德伦数学。威斯。303,柏林施普林格,1993年。
[11] C.Feuersaönger,{高维近似的稀疏网格方法},波恩大学数值模拟研究所博士论文,2010年。
[12] J.Garcke和M.Hegland,{使用梯度惩罚和稀疏网格组合技术拟合多维数据},《计算》,84(2009),第1-25页·Zbl 1166.65004号
[13] M.Griebel和H.Harbrecht,{\it关于稀疏张量积空间的构造},数学。计算。,82(2013),第975-994页·Zbl 1267.41012号
[14] M.Griebel和M.Hegland,{高斯先验密度估计的有限元方法},SIAM J.Numer。分析。,47(2010年),第4759-4792页·Zbl 1211.65007号
[15] M.Griebel和P.Oswald,{各向异性问题的张量积型子空间分裂和多层迭代方法},高级计算。数学。,4(1995年),第171-206页·Zbl 0826.65099号
[16] M.Griebel、P.Oswald和T.Schiekofer,《边界积分方程的稀疏网格》,数值。数学。,83(1999年),第279-312页·兹比尔0935.65131
[17] M.Griebel、C.Rieger和B.Zwicknagl,{多尺度近似和再生核希尔伯特空间方法},SIAM J.Numer。分析。,53(2015),第852-873页·Zbl 1312.41025号
[18] L.Gyo¨rfi、M.Kohler、A.Krzyżak和H.Walk,{非参数回归的无分布理论},Springer,柏林,2002年·Zbl 1021.62024号
[19] T.Hastie和W.Stuetzle,主要曲线,J.Amer。统计师。协会,84(1989),第502-516页·Zbl 0679.62048号
[20] M.Hegland,{它是一种不使用额外光滑性假设的最优阶正则化方法},SIAM J.Numer。分析。,29(1992),第1446-1461页·Zbl 0760.65053号
[21] M.Hegland,{\it数据挖掘技术},《数值学报》。,10(2001年),第313-355页·Zbl 1123.68343号
[22] S.Knapek,{it Approximation und Kompression mit Tensorprodukt-Multiskalenra­umen},波恩大学博士论文,2000年。
[23] M.Kohler,{\it平均值与期望值一致偏差的不等式及其在非参数回归中的应用},J.Statist。规划推断,89(2000),第1-23页·Zbl 0982.62035号
[24] S.Konyagin和V.Temlyakov,{学习理论中的熵。误差估计},Constr。约,25(2007),第1-27页·Zbl 1101.62029号
[25] J.A.Lee和M.Verleysen,{非线性降维},Springer Science,纽约,2007年·Zbl 1128.68024号
[26] C.Michelli和M.Pontil,{关于学习向量值函数},神经计算。,17(2005),第177-204页·Zbl 1092.93045号
[27] G.Migliorati,F.Nobile,E.von Schwerin,and R.Tempone,{用随机评价分析多项式空间上的离散(L^2)投影},Found。计算。数学。,14(2014),第419-456页·Zbl 1301.41005号
[28] J.Peetre,{\it A Theory of Interpolation of Normed Spaces},Instituto de Matemaítica Pura e Aplicada,Conselho Nacional de Pesquisas,里约热内卢,1968年·Zbl 0162.44502号
[29] D.Pflu¨ger、B.Peherstorfer和H.-J.Bungartz,{高维数据驱动问题的空间自适应稀疏网格},J.Complexity,26(2010),第508-522页·Zbl 1200.65100号
[30] T.Poggio、R.Rifkin、S.Mukherjee和P.Niyogi,《学习理论中预测性的一般条件》,《自然》,428(2004),第419-422页。
[31] B.Scho¨lkopf和A.Smola,《用内核学习:支持向量机、正则化、优化和超越》,麻省理工学院出版社,马萨诸塞州剑桥市,2002年。
[32] S.Smale和D.Zhou,{估计学习理论中的近似误差},Ana。申请。,1(2003年),第17-41页·Zbl 1079.68089号
[33] V.Temlyakov,{周期函数的近似},新星科学,Hauppauge,纽约,1993年·Zbl 0899.41001号
[34] V.Temlyakov,{学习理论中的近似},Constr。大约,27(2008),第33-74页·Zbl 05264756号
[35] H.Triebel,{it插值理论,函数空间,微分算子},北荷兰德数学图书馆,阿姆斯特丹,1978年·Zbl 0387.46033号
[36] T.Ullrich,{it Smolyak算法,稀疏网格逼近和具有支配混合光滑性的周期函数空间},耶拿大学博士论文,2007。
[37] V.Vapnik,《统计学习理论》,威利出版社,纽约,1998年·兹比尔0935.62007
[38] M.Wong和M.Hegland,{最大后验密度估计和稀疏网格组合技术},《第16届两年期计算技术和应用会议论文集》,CTAC-2012,S.McCue、T.Moroney、D.Mallet和J.Bunder编辑,2013年,第508-522页·Zbl 06867004号
[39] Q.Wu和D.Zhou,{样本依赖假设空间的学习},计算。数学。申请。,56(2008),第2896-2907页·Zbl 1165.68388号
[40] Y.Ying和D.Zhou,{具有灵活方差的高斯可学习性},J.Mach。学习。Res.,8(2007),第249-276页·Zbl 1222.68339号
[41] Y.Zhang,F.Cao,Z.Xu,{通过Jackson算子估计最小二乘算法的学习率},神经计算,74(2011),第516-521页。
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。