亚当

亚当:一种随机优化方法。介绍了一种基于低阶矩自适应估计的随机目标函数一阶梯度优化算法Adam。该方法实现简单,计算效率高,内存需求少,对梯度的对角线重缩放不变性,并且非常适合于数据和/或参数较大的问题。该方法也适用于非平稳目标和具有非常噪声和/或稀疏梯度的问题。超参数有直观的解释,通常需要很少的调整。讨论了与相关算法的一些联系,这些算法是亚当受到启发的。我们还分析了该算法的理论收敛性,并给出了一个收敛速度的遗憾界,与在线凸优化框架下的已知结果相当。实证结果表明,Adam方法在实际应用中效果良好,与其他随机优化方法相比,具有良好的效果。最后,我们讨论了Adam的一个变体AdaMax。


zbMATH中的参考文献(参考文献458篇)

显示结果1到20,共458个。
按年份排序(引用)

1 2 ... 21 22 23 下一个

  1. 阿德科克,本;Dexter,Nick:深度神经网络函数逼近理论与实践之间的差距(2021)
  2. 安斯沃思,马克;Dong,Justin:Galerkin神经网络:一个具有误差控制的近似变分方程的框架(2021)
  3. 安德森,劳拉B。;格德斯,马蒂斯;格雷,詹姆斯;克里彭多夫,斯文;拉古兰,尼基尔;Ruehle,Fabian:Moduli-dependent-Calabi-Yau和SU(3)——来自机器学习的结构度量(2021)
  4. 安吉丽,安德烈;金属氧化物,Wim;Naets,Frank:多体系统模型阶数降阶到最小坐标的深度学习(2021)
  5. 敖,文琦;李文彬;钱建亮:基于卷积神经网络和迭代算法的SPECT数据和知识驱动方法(2021)
  6. 巴赫金,安东;邓云天;恶心,山姆;奥特,迈尔;兰扎托,马克·奥雷里奥;Szlam,Arthur:基于剩余能量的文本模型(2021)
  7. 巴拉卡特,阿纳斯;Bianchi,Pascal:非凸随机优化ADAM算法的收敛性和动力学行为(2021)
  8. Benjamin Paaßen,Jessica McBroom,Bryn Jeffries,Irena Koprinska,Kalina Yacef:ast2vec:利用Python程序的递归神经编码(2021)阿尔十四
  9. 贝尔西马斯,迪米特里斯;邓恩,杰克;王玉晨:近最优非线性回归树(2021)
  10. 博拉,纳夫德普;Bhatnagar,Vishal:MRGB和Adam optimization的群体级社交媒体流行预测(2021)
  11. 布梅佐乌德,亚历山德拉;艾尔法西希,阿马尔:无生育记录情况下的死亡率数据修正(2021年)
  12. 蔡盛泽;王志成;福斯特,弗雷德里克;全,小金;灰色,愈伤组织;Karniadakis,George Em:咖啡杯上的流动:通过物理信息神经网络从层析背景定向纹影术推断三维速度和压力场(2021)
  13. 坎库穆尼,史密斯W.A。;卡斯特罗(Jose D.B.)。;波特拉茨,朱利亚;埃梅里克,亚历山德拉A。;Pacheco,Marco Aurélio C.:结合整体平滑和深层生成网络进行相历史匹配的最新进展(2021年)
  14. 曹操、易;刘晓泉;翟,贾:基于神经网络的无套利约束下的期权定价(2021)
  15. Carboneau,Alexandre:长期金融衍生品的深度对冲(2021)
  16. 塞莱多尼,埃琳娜;Ehrhardt,Matthias J。;埃特曼,克里斯蒂安;奥伦,布林朱夫;比安利布,比安莱;Sherry,Ferdia:反问题的等变神经网络(2021)
  17. 陈李伟;卡卡尔,伯克利A。;胡湘玉;Thuerey,Nils:使用深度学习替代物对层流中最小阻力剖面的数值研究(2021)
  18. 迟亨;张雨雨;唐太宗,茨林依莲;米拉贝拉,露西亚;达洛罗,利维奥;歌,乐;Paulino,Glaucio H.:拓扑优化的通用机器学习(2021)
  19. 崔喜善;安,俊墨;汉、宋基;金,金运;郑在元;崔菊焕;奥泽乔夫斯基,格尔泽戈尔茨;米科拉,阿基;Choi,Jin Hwan:使用深度神经网络进行通用多体动力学的数据驱动模拟(2021)
  20. David Salinas,Valentin Flunkert,Jan Gasthaus:DeepAR:自回归递归网络的概率预测(2021)阿尔十四

1 2 ... 21 22 23 下一个