阿萨夫·泽维。;罗尼·迈尔 通过密度凸组合进行密度估计:近似和估计界。 (英语) Zbl 0869.68094号 神经网络。 10,第1期,99-109(1997). 摘要:我们考虑了从一系列(N)个独立且同分布的观测值(x_i)中估计密度函数的问题,这些观测值取(x\subset\mathbb{R}^d)中的值。估计过程构造了“基”密度的凸混合,并使用最大似然法估计参数。将误差视为两项的组合,即测量模型充分性的近似误差和由样本量的有限性引起的估计误差,我们导出了预期总误差的上界,从而获得了收敛速度的边界。然后,这些结果允许我们导出与样本复杂性和模型复杂性相关的显式表达式。 引用于21文件 MSC公司: 68吨10 模式识别、语音识别 关键词:最大似然法;模型复杂性 PDF格式BibTeX公司 XML格式引用 \textit{A.J.Zeevi}和\textit{R.Meir},神经网络。10,第1号,99--109(1997;Zbl 0869.68094) 全文: 内政部 参考文献: [2] 阿玛里,S.I。;Murata,N.,熵损失准则下学习曲线的统计理论,神经计算,5140-153(1993) [3] Barron,A.R.,σ函数叠加的通用近似界,IEEE信息理论汇刊,IT-39,930-945(1993)·Zbl 0818.68126号 [4] Barron,A.R.,人工神经网络的近似和估计界,机器学习,4115-133(1994)·Zbl 0818.68127号 [5] Barron,A.R。;Sheu,C.H.,指数族序列对密度函数的逼近,《统计学年鉴》,1,3,1347-1369(1991)·Zbl 0739.62027号 [6] Barron,A.R。;Cover,T.M.,最小复杂度密度估计,IEEE信息理论汇刊,IT-37,4,1034-1054(1991)·Zbl 0743.62003号 [7] Dempster,A.P。;新墨西哥州莱尔德。;Rubin,D.B.,《通过EM算法从不完整数据中获取最大似然》,《皇家统计学会杂志》,B39,1-38(1977)·Zbl 0364.62022号 [10] Geman,S。;Gwang,C.R.,用筛子法进行非参数最大似然估计,统计年鉴,10,2,401-414(1982)·Zbl 0494.62041号 [11] 雅各布斯,R.A。;约旦医学院。;Nowlan,S.J。;Hinton,G.E.,本地专家的自适应混合,神经计算,379-87(1991) [13] M.I.乔丹。;Jacobs,R.A.,专家和EM算法的层次混合,神经计算,6181-214(1994) [17] Park,J。;Sandberg,I.W.,使用径向基函数网络的通用近似,神经计算,3246-257(1991) [20] Priebe,C.E.,适应性混合,《美国统计协会杂志》,89,427,796-806(1994)·Zbl 0825.62445号 [21] Redner,R.A。;Walker,H.F.,《混合密度、最大似然和EM算法》,SIAM Review,26195-239(1984)·Zbl 0536.62021号 [25] White,H.,错误指定非线性回归模型的后果和检测,美国统计协会杂志,76419-433(1981)·Zbl 0467.62058号 [26] White,H.,错误指定模型的最大似然估计,《计量经济学》,50,1,1-25(1982)·Zbl 0478.62088号 [27] White,H.,连接主义非参数回归:多层前馈网络可以学习任意映射,神经网络,3535-549(1991) 此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。