×

用神经网络求解偏微分方程的最优加权损失函数。 (英语) Zbl 1518.65143号

本文的主要目的是推广[M.莱斯等,“物理促进了深度学习。I:非线性偏微分方程的数据驱动解”,预印本,arXiv:1711.10561]对于边值问题,引入新的损失泛函。作者首先引入了一个损失函数,使得[loc.cit.]中的损失函数可以被视为特定场景中的Monte-Carlo近似。
定理1在新损失泛函的最小化和适定边值问题的近似解之间建立了一座桥梁。作者提出了几点意见,证明使用该结果可以确保成功应用神经网络来最小化相应的蒙特卡罗近似。
在定理2中,对于线性边值问题,证明了新的损失函数是凸的。因此,这种损失函数不具有局部极小值。应该指出,神经网络将凸损失泛函转化为非凸问题。此外,定理2要求边值问题的线性。
第3节讨论了损失函数的新选择,引入了一个称为损失重量的新参数。主要问题是我们应该如何修正这个参数,也就是说,对于特定的误差度量,它的最佳选择是什么。为了回答这个问题,作者引入了(ε)-贴近度的概念,它可以被视为近似解的相对误差。假设近似解是(ε)-闭的,作者根据微分问题的真实解构造了损失泛函的内损失项和边界损失项的上界。然后使用这些上限来修正减重参数。由于真实解未知,作者将其替换为近似解,从而获得第4节中的归一化损失函数。为了应用本文的结果,第五节讨论了网络结构、损失泛函的计算和训练算法。在第6节中,作者将所提出的方法与[loc.cit.]中介绍的方法进行了比较,考虑了几个微分问题:带Dirichlet边界条件的Laplace和Poisson方程;([0,1]\)中具有Dirichlet边界条件的对流扩散方程。
从数值实验中,我们得出结论,这里介绍的方法通常比[loc.cit.]中研究的方法具有更高的精度。

MSC公司:

65N99型 偏微分方程边值问题的数值方法
68T07型 人工神经网络与深度学习
65号35 偏微分方程边值问题的谱、配置及相关方法
65克10 数值优化和变分技术
65立方厘米20 概率模型,概率统计中的通用数值方法
65N75型 涉及偏微分方程的边值问题的概率方法、粒子方法等
35J15型 二阶椭圆方程
76兰特 扩散
PDF格式BibTeX公司 XML格式引用

参考文献:

[1] Schmidhuber,J.,《神经网络的深度学习:概述》(2014),ArXiv E-Prints ArXiv:1404.7828
[2] Owhadi,H.,BayesIan数值均匀化,多尺度模型。同时。,13, 3, 812-828 (2015) ·兹比尔1322.35002
[3] 莱斯,M。;佩迪卡里斯,P。;Karniadakis,G.E.,使用高斯过程的线性微分方程机器学习,J.Compute。物理。,348, 683-693 (2017) ·Zbl 1380.68339号
[4] 奥瓦迪,H。;Scovel,C。;Sullivan,T.,连续世界中有限信息下贝叶斯推理的脆性,电子。J.Stat.,9,1,1-79(2015)·Zbl 1305.62123号
[5] 莱斯,M。;佩迪卡里斯,P。;Karniadakis,G.E.,含时和非线性偏微分方程的数值高斯过程,SIAM J.Sci。计算。,40、1、A172-A198(2018)·兹比尔1386.65030
[6] 霍尼克,K。;Stinchcombe,M。;White,H.,多层前馈网络是通用逼近器,神经网络。,2, 5, 359-366 (1989) ·Zbl 1383.92015年
[7] 霍尼克,K。;Stinchcombe,M。;White,H.,使用多层前馈网络对未知映射及其导数的通用近似,神经网络。,3, 5, 551-560 (1990)
[8] 拉加里斯,I.E。;利卡斯,A。;Fotiadis,D.I.,求解常微分方程和偏微分方程的人工神经网络(1997),ArXiv E-Prints ArXiv:physical/9705023
[9] 西里尼亚诺,J。;Spiliopoulos,K.,DGM:解偏微分方程的深度学习算法,J.Compute。物理。,375, 1339-1364 (2018) ·兹比尔1416.65394
[10] 莱斯,M。;佩迪卡里斯,P。;Karniadakis,G.E.,《物理信息深度学习(第一部分):非线性偏微分方程的数据驱动解》(2017),ArXiv电子指纹ArXiv:1711.10561
[11] Dockhorn,T.,《关于使用神经网络求解偏微分方程的讨论》(2019),ArXiv E-Prints ArXiv:1904.07200
[12] He,J。;李,L。;徐,J。;Zheng,C.,ReLU深度神经网络和线性有限元(2018),ArXiv E-Prints ArXiv:1807.03973
[13] Han,J。;Jentzen,A。;Weinan,E.,使用深度学习求解高维偏微分方程,Proc。国家。阿卡德。科学。,115, 34, 8505-8510 (2018) ·Zbl 1416.35137号
[14] Chan-Wai-Nam,Q。;Mikael,J。;Warin,X.,《半线性偏微分方程的机器学习》,J.Sci。计算。,79, 3, 1667-1712 (2019) ·Zbl 1433.68332号
[15] Grohs,P。;Hornung,F。;Jentzen,A。;Von Wurstemberger,P.,《人工神经网络在Black-Scholes偏微分方程数值逼近中克服维数灾难的证明》(2018),arXiv预印本arXiv:1809.02362
[16] 伯纳,J。;Grohs,P。;Jentzen,A.,《泛化误差分析:深度人工神经网络的经验风险最小化克服了black-scholes偏微分方程数值逼近中的维数灾难》,SIAM J.Math。数据科学。,2, 3, 631-657 (2020) ·Zbl 1480.60191号
[17] Jentzen,A。;Salimova,D。;Welti,T.,深度人工神经网络在具有常数扩散和非线性漂移系数的Kolmogorov偏微分方程的数值逼近中克服维数灾难的证明(2018),arXiv预印本arXiv:1809.07321
[18] Darbon,J。;Langlois,G.P。;Meng,T.,通过神经网络结构克服某些Hamilton-Jacobi偏微分方程的维数灾难,Res.Math。科学。,7, 3, 1-50 (2020) ·兹比尔1445.35119
[19] 王,S。;滕,Y。;Perdikaris,P.,《理解和缓解物理信息神经网络中的梯度病理学》(2020年),arXiv预印本arXiv:2001.04536
[20] Chakraborty,S.,基于传输学习的多保真度物理通知深度神经网络,J.Compute。物理。,426,第109942条pp.(2021)·兹比尔07510057
[21] Wesseling,P.,《计算流体动力学原理》(2000),施普林格-弗拉格出版社:柏林施普林格出版社,海德堡·Zbl 0960.76002号
[22] Hölder,O.,Ueber einen Mittelwertsatz,(Nachrichten Von Der Knigl.Gesellschaft Der Wissenschaften Und Der Georg-Augusts-Universityät Zu Gttingen(1889))
[23] Draxler,F。;Veschgini,K。;Salmhofer,M。;Hamprecht,F.A.,《神经网络能源景观基本无障碍》(2018),ArXiv E-Prints ArXiv:1803.00885
[24] 巴赫,F.,《用凸神经网络打破维度诅咒》,J.马赫。学习。第18号、第1号、第629-681号决议(2017年)·Zbl 1433.68390号
[25] 格洛洛特,X。;Y.本吉奥。;Teh,Y.W。;Titterington,M.,《理解深度前馈神经网络训练的困难》,《第十三届国际人工智能与统计会议论文集》,第9卷,249-256(2010),URLhttp://proceedings.mlr.press/v9/glorot10a.html
[26] 伯德·R·H。;卢,P。;Nocedal,J。;Zhu,C.,有界约束优化的有限内存算法,SIAM J.Sci。计算。,16, 5, 1190-1208 (1995) ·Zbl 0836.65080号
[27] Kingma,D.P。;Ba,J.,Adam:随机优化方法(2014),ArXiv E-Prints ArXiv:1412.6980
[28] Kailai,X.,偏微分方程PDE的深度学习(2018)
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。