阈值算法的给定收敛速度的极大空间

@第{Cohen2001MaximalSW条,title={阈值算法具有给定收敛速度的最大空间},作者={Albert Cohen和Ronald A.DeVore以及Gerard Kerkyacharian和Dominique Picard},journal={应用和计算谐波分析},年份={2001},体积={11},页码={167-191},网址={https://api.semanticscholar.org/CorpusID:7836935}}
近年来,在非参数估计的背景下,人们提出并深入研究了各种非线性方法:收缩方法[21]、局部自适应带宽选择[16]和小波阈值[7]。比较两种不同方法性能的一种方法是确定一类待估计的函数,并测量每种方法在此类上实现的估计率。在这种情况下,大多数这些方法已经被证明可以实现最小最大速率

学习理论中的阈值

本文研究了使用阈值技术学习未知有界函数的问题,该技术在过去十年的统计学中已被证明具有很好的恢复非均匀平滑信号的特性,但在学习理论中尚未得到广泛发展。

应用和计算谐波分析

本文研究了任意维d上Stein块阈值的极小极大性质,特别强调了d=2。为此,我们考虑

𝓁1-正则化中近似率的最大空间

结果表明,在这种设置下,可以实现正则化参数中任意高阶Holder型的逼近率,并且该方法也能以差分原理作为参数选择规则,在噪声水平方面收敛于最优速率。

各向同性和双曲型小波估计的性能

本文在多元非参数函数估计的背景下,区分了各向同性小波基和双曲小波基。对后者的研究导致了新的现象和

标准和双曲小波基中投影估计的渐近性能

我们对标准(小波传感器)和双曲(张量积)小波基构建多元函数非参数估计量的能力进行了新的处理。第一,

学习理论的通用算法第一部分:分段常数函数

如果回归函数位于相对于边际测度测量的某类近似空间(或不超过一阶的光滑空间——由于估计器使用分段常数而导致的限制)中的任何一个,然后,估计量收敛到回归函数,并具有与样本数有关的最佳收敛速度。

机器学习中的通用分段多项式估计

这些是随着观测数据数量m的增加,超过最佳速率的概率趋于零的估值器,并且描述了一类受小波展开阈值概念启发的方案。

$$\ell^1$$▽1-正则化中近似率的最大空间

在微分方程参数识别问题的数值模拟中,理论结果正确地预测了分段光滑未知系数的改进收敛速度,Tikhonov正则化方法在噪声水平方面以最佳速度收敛。

最小值或最大值

我们讨论了一种评估统计估计过程性能的新方法。这包括研究给定过程具有给定收敛速度的最大集。
...

小波收缩:渐近?

一种基于n个噪声数据的曲线估计方法:将经验小波系数向原点平移√(2 log n)/√n,并绘制出鲁棒性接近最优的松散平行线,以及小波本身的宽近特征函数特性。

基于小波收缩的Minimax估计

提出了一种通过经验小波系数的简单非线性收缩作用于小波域的非线性方法,该方法基于简单阈值非线性估计的变量几乎是极小的。

基于小波收缩的未知平滑度自适应

摘要我们试图从噪声采样数据中恢复未知平滑度函数。我们介绍了一种SureSrink程序,它通过对经验小波进行阈值处理来抑制噪声

新经典极小极大问题、阈值和自适应函数估计

标量极小极大结果意味着:Lepskii的结果表明,在不产生性能代价的情况下,不可能完全适应未知的平滑度;经验小波变换的简单阈值可以在一个固定点上估计一个函数,该函数在常数范围内对未知平滑度进行最佳自适应。

基于核和小波方法的曲线估计块阈值规则

有人认为,块阈值法有许多优点,包括它产生的自适应估计器可以实现最小最优收敛速度,而不需要有时与逐项阈值法相关的对数惩罚。

基于小波阈值的密度估计

密度估计是非参数估计方法的常用测试用例。我们研究了基于经验小波系数阈值的估计量的渐近性质。

lp自适应密度估计

这些程序说明了在估计方法中,通过将傅里叶基替换为小波基可以得到的定义,并研究了这些程序的极大极小性质,解释了它们在不同的全局误差度量中的演变。

自适应密度估计

本文给出了利用Donoho-Johnstone-Kerkyacharian-Picard过程用小波方法自适应估计密度的一些结果,并研究了它们的极大极小性质。