×

函数逼近和插值人工神经网络的一些方面。 (俄语。英文摘要) 兹比尔1515.65044

摘要:本文利用基于Kolmogorov-Anold定理和Tsybenko定理构造的神经网络,研究函数(f(x)=|x|\)、(f(x)=\sin(x)\)和(f(x=1/(1+25x^2)的逼近和插值问题。给出了基于权值随机初始化的神经网络训练中存在的问题。显示了训练神经网络以处理各种类型的可能性。

MSC公司:

65日第15天 函数逼近算法
41A65型 抽象近似理论(赋范线性空间和其他抽象空间中的近似)
68T07型 人工神经网络与深度学习
PDF格式BibTeX公司 XML格式引用
全文: 内政部 MNR公司

参考文献:

[1] Braun J.,Griebel M.,“关于Kolmogorov叠加定理的构造性证明”,《构造逼近杂志》,30(2009),653 doi:10.1007/s00365-009-9054-2·Zbl 1194.26020号 ·doi:10.1007/s00365-009-9054-2
[2] Cybenko,G.V.,“Sigmoid函数的叠加逼近”,《控制信号和系统数学》,2(1989),303-314·Zbl 0679.94019号 ·doi:10.1007/BF02551274
[3] David A.Sprecher,“关于几个变量连续函数的结构”,转。阿默尔。数学。Soc.,1965年,340-355·Zbl 0142.30401号 ·doi:10.1090/S0002-9947-1965-0210852-X
[4] Funahashi K.,“用神经网络近似实现连续映射”,神经网络,2(1989),183-192·doi:10.1016/0893-6080(89)90003-8
[5] 何凯,张欣,任S.,孙杰,“深入研究矫正器:在ImageNet分类上超越人类水平的表现”,arXiv:1502.018522015
[6] Liang S.,Srikant R.,“为什么用深层神经网络进行函数逼近?”,作为ICLR会议论文发表,2017年
[7] Hanin B.,“有界宽度和ReLU激活的深度神经网络通用函数逼近”,数学,7(2019),992·doi:10.3390/路径7100992
[8] 刘斌,梁毅,“ReLU神经网络的最优函数逼近”,神经计算,435(2021),216-227·doi:10.1016/j.neucom.2021.01.007
[9] Almira J.M.、Lopez-de-Teruel P.E.、Romero-Loípez D.J.、Voigtlaender F.,“使用单层和多层前馈神经网络进行近似的负面结果”,《数学分析与应用杂志》,494:1(2021),124584·Zbl 07309692号 ·doi:10.1016/j.jmaa.2020.124584
[10] Guliyev N.J.,Ismailov V.E.,“关于用固定权重的单隐层前馈神经网络进行逼近”,《神经网络》,98(2018),296-304·Zbl 1437.68062号 ·doi:10.1016/j.neunet.2017.12.007
[11] Guliyev N.J.,Ismailov V.E.,“具有固定权重的两个隐层前馈神经网络的逼近能力”,神经计算,316(2018),262-269·doi:10.1016/j.neucom.2018.07.075
[12] Kolmogorov A.N.,“O predstavelenii nepreryvnykh funktsiy mnogikh peremenykh v vide superpozitsii nepreyvnyko funktsiy odnoy peremennoy”,多克拉迪·AN SSSR,114(1957),953-956(俄语)·Zbl 0090.27103号
[13] Arnold V.I.,“O predstavelenii funktsiy neskol”kikh peremennykh V vide superpozitsii funktsiy men'shego chisla peremenykh”,马特马提切斯科耶出版社,3(1958),41-61(俄语)·Zbl 0090.27201号
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。