诺亚·戈洛维奇;亚历山大·拉赫林;奥哈德·沙米尔 神经网络的尺寸依赖样本复杂性。 (英语) Zbl 1528.68354号 Inf.推断 9,编号2473-504(2020). 小结:我们研究了学习神经网络的样本复杂度,为其Rademacher复杂度提供了新的界,假设每个层的参数矩阵具有范数约束。与之前的工作相比,这些复杂度界限改善了对网络深度的依赖性,并且在一些附加假设下,完全独立于网络大小(深度和宽度)。这些结果是使用一些新技术得出的,这些新技术可能会引起独立的兴趣。 引用于19文件 MSC公司: 68T07型 人工神经网络与深度学习 关键词:神经网络;深度学习;样本复杂性;Rademacher复杂性 PDF格式BibTeX公司 XML格式引用 \textit{N.Golowich}等人,Inf.Inference 9,No.2,473--504(2020;Zbl 1528.68354) 全文: DOI程序 arXiv公司