MSC 62G08中最近的zbMATH文章 https://zbmath.org/atom/cc/62G08 2024-03-13T18:33:02.981707Z Werkzeug公司 范数约束神经网络的逼近界及其在回归和GAN中的应用 https://zbmath.org/1528.41035 2024-03-13T18:33:02.981707Z “焦玉玲” https://zbmath.org/authors/?q=ai:jiao.yuling “王,杨” https://zbmath.org/authors/?q=ai:wang.yang.1 “杨云飞” https://zbmath.org/authors/?q=ai:yang.yunfei 摘要:本文研究了权值具有范数约束的ReLU神经网络的逼近能力。对于光滑函数类,我们证明了这些网络的逼近误差的上下界。下限是通过神经网络的Rademacher复杂性推导出来的,这可能是独立的。我们应用这些近似界分析了范数约束神经网络回归和GAN分布估计的收敛性。特别地,我们获得了超参数化神经网络的收敛速度。当鉴别器是一个适当选择的范数约束神经网络时,GAN可以获得最佳的学习概率分布率。 具有信息簇大小的多州当前状态聚类数据的非参数回归 https://zbmath.org/1528.62022 2024-03-13T18:33:02.981707Z “兰,玲” https://zbmath.org/authors/?q=ai:lan.ling网址 “Bandyopadhyay,Dipankar” https://zbmath.org/authors/?q=ai:bandyopadhyay.dipankar “达塔,索姆纳特” https://zbmath.org/authors/?q=ai:datta.somnath 小结:检查牙周病的数据集记录了牙齿的当前(疾病)状态信息,其随机行为可归因于在单个检查时间确定状态占用的多状态系统。此外,牙侧仍然聚集在受试者体内,可用牙侧的数量可能代表该受试者的真实牙周疾病状态,从而导致“信息性集群大小”的情况。为了避免不正确的模型假设,我们提出了一个非参数回归框架,利用加权单调回归和平滑技术估计给定时间的状态占用概率和状态退出/进入分布。通过模拟研究,我们证明了我们提出的加权估计器相对于未加权估计员的优越性能,并使用牙周病数据集说明了该方法。{{\copyright}2016作者。国家统计局(Statistica Neerlandica){\版权}2016年VVS.} 不同损失函数惩罚样条回归的渐近性和光滑参数选择 https://zbmath.org/1528.62023 2024-03-13T18:33:02.981707Z “吉田,高沼” https://zbmath.org/authors/?q=ai:yoshida.takuma 摘要:惩罚样条用于各种类型的回归分析,包括非参数分位数、稳健回归和常用的均值回归。本文主要研究具有一般凸损失函数的惩罚样条估计量。通过指定损失函数,我们可以得到平均估计、分位数估计和鲁棒估计。我们将首先研究惩罚样条的渐近性质。具体来说,我们将展示估计量的渐近偏差和方差以及渐近正态性。接下来,我们将讨论如何选择平滑参数以最小化平均积分平方误差。新的平滑参数可以用惩罚样条估计量的渐近偏差和方差唯一地表示。为了验证新的平滑参数选择方法,我们将进行仿真。仿真结果表明,该估计器与所提出的平滑参数选择方法的一致性可以得到证实,并且所提出的估计器比广义近似交叉验证估计器具有更好的性能。还介绍了一个实际数据示例。{{\copyright}2016作者。国家统计局(Statistica Neerlandica){\版权}2016年VVS.} 具有部分失真测量误差的限制偏线性回归模型的统计推断 https://zbmath.org/1528.62024 2024-03-13T18:33:02.981707Z “张,军” https://zbmath.org/authors/?q=ai:zhang.jun.10 “周,南光” https://zbmath.org/authors/?q=ai:zhou.nanguang “孙子鹏” https://zbmath.org/authors/?q=ai:sun.zipeng “李高荣” https://zbmath.org/authors/?q=ai:li.gaorong “魏正红” https://zbmath.org/authors/?q=ai:wei.zhenghong 小结:我们考虑了部分线性回归模型的估计和假设检验问题,其中一些变量被一些常见可观测混杂变量的未知函数所扭曲。所建议的估计程序旨在容纳未失真和失真的变量。为了检验参数分量的假设,在原假设下提出了一种受限最小二乘估计。建立了估计量的渐近性质。提出了一种基于零假设和替代假设下残差平方和的检验统计量,并得到了检验统计量的渐近性质。提出了一种野引导程序来计算临界值。通过仿真研究验证了该方法的性能,并通过一个实例进行了分析。{{\copyright}2016作者。国家统计局(Statistica Neerlandica){\版权}2016年VVS.} 各向异性高斯支持向量机的最优学习 https://zbmath.org/1528.68342 2024-03-13T18:33:02.981707Z “杭,汉源” https://zbmath.org/authors/?q=ai:hang.hanyuan “斯坦沃特·因戈” https://zbmath.org/authors/?q=ai:steinwart.ingo 摘要:本文研究了具有各向异性高斯RBF核的SVM的非参数回归问题。在目标函数位于某些各向异性Besov空间的假设下,我们建立了由有效平滑度表示的几乎最优的学习速率,更准确地说,是达到某些对数因子的最优学习速率。通过考虑有效的平滑性,我们的几乎最优学习速率要比底层RKHS是某些各向异性Sobolev空间时获得的学习速率快。此外,如果目标函数仅依赖于较少的维度,则可以进一步实现更快的学习速度。 具有Huber损失的鲁棒成对学习 https://zbmath.org/1528.68344 2024-03-13T18:33:02.981707Z “黄,守友” https://zbmath.org/authors/?q=ai:huang.shouyou “吴强” https://zbmath.org/authors/?q=ai:wu.qiang 总结:成对学习自然产生于机器学习任务,如AUC最大化、排名和度量学习。在本文中,我们提出了一种基于加性噪声回归模型的新的成对学习算法,该算法采用了成对Huber损失,即使在噪声仅满足弱矩条件的情况下也能有效地应用。由于Huber损失函数的鲁棒性,该方法能够抵抗响应变量中的严重错误或异常值。我们建立了一个比较定理来刻画过度泛化误差和预测误差之间的差距。在适当的条件下,我们导出了误差界和收敛速度。值得一提的是,所有结果都是在噪声变量的第(1+epsilon)阶矩条件下建立的。它相当弱,特别是在\(\epsilon<1)的情况下,这意味着噪声变量甚至不允许有限方差。