用全连通深度神经网络估计流形上的回归函数

@第{科勒2021号评估OA,title={全连通深神经网络对流形上回归函数的估计},author={迈克尔·科勒(Michael Kohler)、索菲·兰格(Sophie Langer)和乌尔里希·雷夫(Ulrich Reif}),journal={统计规划与推断杂志},年份={2021},url={https://api.semanticscholar.org/CorpusID:234369806}}

询问这篇论文
AI供电

基于深度神经网络的重复测量非参数回归

本文导出了H“older光滑空间中DNN估计量的近似最优收敛速度,并说明了重复测量固有的相变现象及其与维数灾难的关系。

通过深度神经网络进行图像响应回归。

本文在空间变系数模型框架下提出了一种新的非参数方法,其中空间变函数通过深度神经网络进行估计,使其成为捕获复杂关联模式的理想方法。

简单神经网络近似平稳点的统计保证

开发了简单的神经网络,其对数因子与全局最优值一致,但适用于平稳点和附近的点,支持了一个普遍的概念,即神经网络不一定需要从数学角度进行全局优化。

流形上函数的深度ReLU网络逼近

本文研究了嵌入到环境维可能大得多的空间中的$d^*$维流形上输入的回归问题,并导出了估计量的统计收敛速度,以最小化有界网络参数的所有可能选择的经验风险。

深度学习作为非参数回归中维数灾难的补救方法

结果表明,基于多层前馈神经网络的最小二乘估计能够避免非参数回归中的维数灾难。

关于全连通超深神经网络回归估计的收敛速度

本文表明,基于深度神经网络的新近似结果,基于具有ReLU激活函数的简单全连接神经网络的最小二乘估计也可能获得类似的结果。

基于ReLU激活函数的深度神经网络非参数回归

该理论表明,对于非参数回归,根据样本大小缩放网络深度是很自然的,分析对多层前馈神经网络在实践中表现良好的原因提供了一些见解。

贝叶斯流形回归

可以应用高斯过程回归方法,该方法在某些条件下在估计回归函数时导致最小最大最优自适应率,并且可以使用用于高斯过程中的后验计算的标准算法来实现。

用线性函数的极大极小估计回归函数

考虑了独立同分布随机变量回归函数的估计,证明了对于满足单指标模型假设的光滑回归函数,该估计能够达到相应的最优一维收敛速度。

深度神经网络对内禀维数的自适应逼近与估计

理论证明,深度神经网络(DNNs)的泛化性能主要取决于数据的内在低维结构,并且DNNs优于其他也适应内在维的非参数估计量。

局部流形学习的深度网

为了利用训练数据实现该近似方案,提出了深度网(或多层神经网络),并易于扩展以解决图像前问题和样本外扩展问题,扩展后的函数增长具有先验界。
...