深刺

DeepONet:基于算子的普遍逼近定理学习辨识微分方程的非线性算子。虽然众所周知,神经网络是连续函数的通用逼近器,但一个鲜为人知、或许更为有力的结果是,具有单个隐藏层的神经网络可以精确地逼近任何非线性连续算子。这一普遍逼近定理暗示了神经网络在从数据中学习非线性算子方面的潜在应用。然而,对于足够大的网络,该定理只保证一个小的近似误差,而没有考虑重要的优化和泛化误差。为了在实践中实现这一定理,我们提出了深度算子网络(DeepONets)来从相对较小的数据集中准确有效地学习算子。DeepONet由两个子网组成,一个用于编码固定数量的传感器xi,i=1,…,m(分支网)的输入功能,另一个用于编码输出功能的位置(主干网)。我们对两种类型的算子,即动态系统和偏微分方程进行了系统的仿真,结果表明DeepONet比全连通网络显著地降低了泛化误差。我们还从理论上推导了近似误差与传感器数目(定义输入函数的位置)和输入函数类型的关系,并用计算结果验证了该定理。更重要的是,我们在计算测试中观察到高阶误差收敛,即多项式速率(从半阶到四阶)甚至指数收敛。


zbMATH中的参考文献(参考文献50篇文章)

显示第1到第20个结果,共50个。
按年份排序(引用)
  1. 布伦顿,史蒂文L。;布迪希奇,马尔科;凯撒,尤里卡;库茨,J.内森:动力系统的现代库曼理论(2022)
  2. 布尔科夫斯卡,奥列娜;格拉萨,基督教;D'Elia,Marta:分数型非局部模型参数学习的优化方法(2022)
  3. 陈真;丘吉尔,维克托;吴开良;徐东斌:节点空间中未知偏微分方程的深层神经网络建模(2022)
  4. 崔涛;王子明;向学双:求解Helmholtz方程的一种有效的平面波激活函数神经网络方法(2022)
  5. 高、宜航;Ng,Michael K.:Wasserstein生成性对抗性不确定性量化在物理信息神经网络中的应用(2022)
  6. 戈斯瓦米,索姆达塔;尹明朗;余、岳;Karniadakis,George Em:用于预测准脆性材料裂纹路径的物理信息变分深孔(2022)
  7. 古普塔,拉希特;Jaiman,Rajeev:移动界面和流体结构相互作用的混合分区深度学习方法(2022)
  8. 亨克斯,亚历山大;韦塞尔斯,亨宁;Mahnken,Rolf:连续介质微观力学的物理信息神经网络(2022)
  9. 赫尔曼,卢卡斯;约斯特A.A.Opschoor。;施瓦布,克里斯托夫:构造性深层关系神经网络近似(2022)
  10. 胡,C。;马丁S。;Dingreville,R.:通过学习潜在空间微观结构演化的递归神经网络加速相场预测(2022)
  11. 胡佳伟;张伟伟:网格转换:流场模拟中网格分辨率无关的卷积算子(2022)
  12. 胡,琵琶;杨,吴越;朱毅;Hong,Liu:从ODENet的时间序列数据揭示隐藏的动态(2022)
  13. 赫特,克莱门斯;居尔,雷杰普;Bölcskei,Helmut:线性动力系统递归神经网络学习的度量熵极限(2022)
  14. 金,英圭;崔永洙;维德曼,大卫;Zohdi,Tarek:一种快速精确的浅掩模自动编码器神经网络降阶模型(2022)
  15. 康托拉提,卡蒂亚纳;Loukrezis,迪米特里奥斯;乔瓦尼斯,迪米特里奥斯G。;范德纳普,洛希特;Shields,Michael D.:黑盒型问题高维不确定性量化的无监督学习方法综述(2022)
  16. 科瓦茨,亚历山大;Exl,卢卡斯;科内尔,亚历山大;约翰·菲施巴赫;霍沃卡,马库斯;古森鲍尔,马库斯;布莱斯,莱昂尼;奥泽特,哈拉尔德;Yano,Masao;坂沼,北三谷;金下,明仁;Shoji,Tetsuya;阿基拉加藤;条件物理信息神经网络(2022)
  17. 鲁,鲁;孟旭辉;蔡盛泽;毛志平;戈斯瓦米,索姆达塔;张忠强;Karniadakis,George Em:基于公平数据的两个神经算子的全面和公平比较(带实用扩展)(2022年)
  18. 马根伯格,尼尔斯;莱西格,基督徒;Richter,Thomas:深层神经网络多重网格求解器的结构保持(2022)
  19. 无光泽,红色;Ghosh,Susanta:为Allen-Cahn和Cahn-Hilliard方程训练物理信息神经网络的新序列方法(2022)
  20. 孟旭辉;杨、刘;毛志平;德吉拉费兰迪斯,何塞;Karniadakis,George Em:从数据和物理学习函数的先验和后验(2022)