×

基于稀疏测量的随机对流扩散反应系统的学习和元学习。 (英语) Zbl 07441294号

摘要:物理信息神经网络(PINN)最近在年被提出[M.莱斯等,《计算杂志》。物理。378, 686–707 (2019;Zbl 1415.68175号)]作为求解偏微分方程(PDE)的另一种方法。神经网络(NN)表示解,而PDE诱导的NN耦合到解NN,所有微分算子都使用自动微分处理。在这里,我们首先使用标准PINN和随机版本sPINN来求解非线性对流-扩散-反应(ADR)方程控制的正问题和逆问题,假设我们在随机或预先选择的位置有浓度场的稀疏测量。随后,我们尝试使用贝叶斯优化方法(元学习)来优化sPINN的超参数,并将结果与经验选择的sPINN超参数进行比较。特别是,对于求解逆确定性ADR的第一部分,我们假设我们只有几个高保真测量值,而其余数据的保真度较低。因此,PINN使用复合训练多保真度网络,首次引入于[十、孟G.E.卡尼亚达基斯,J.计算。物理。401,文章ID 109020,第15页(2020;兹比尔1454.76006)]它学习了多保真度数据之间的相关性,并预测了扩散率、传输速度、两个反应常数以及浓度场的未知值。对于随机ADR,我们使用Karhunen-Loève(KL)展开来表示随机扩散率,并使用任意多项式混沌(aPC)来表示随机解。相应地,我们设计了多个NN来表示意思是并分别学习每个aPC模式,而我们使用单独的NN来表示意思是和另一个神经网络来学习KL展开的所有模式。对于反问题,除了随机扩散率和浓度场外,我们还旨在获得(未知)传输速度和反应常数的确定值。可用数据对应7空间的扩散系数和20分时空解决方案的点数,均采样2000次。我们对1–2%阶的确定性参数获得了良好的精度,对随机场的均值和方差获得了极好的精度,优于三位数的精度。在第二部分中,我们考虑了前面的随机逆问题,并使用贝叶斯优化找到了sPINN的五个超参数,即用于学习模式的两个NN的宽度、深度和学习速率。与手动调谐相比,我们获得了更深更广的最优NN,从而获得了更好的精度,即确定性值的误差小于1%,而随机场的误差约小一个数量级。

MSC公司:

68T05型 人工智能中的学习和自适应系统
35兰特 偏微分方程的逆问题
PDF格式BibTeX公司 XML格式引用

参考文献:

[1] Barajas-Solano,D.A.和Tartakovsky,A.M.(2019)具有异质和状态相关系数的偏微分方程的近似贝叶斯模型反演。J.计算。《物理学》395247-262·Zbl 1453.62410号
[2] Bergstra,J.S.、Bardenet,R.、Bengio,Y.和Kégl,B.(2011)超参数优化算法。摘自:《神经信息处理系统进展》,第2546-2554页。
[3] Chen,T.Q.,Rubanova,Y.,Bettencourt,J.&Duvenaud,D.K.(2018)神经常微分方程。摘自:《神经信息处理系统进展》,第6571-6583页。
[4] Chaudhari,P.、Oberman,A.、Osher,S.、Soatto,S.和Carlier,G.(2018)深度松弛:优化深度神经网络的偏微分方程。Res.数学。科学5(3),30·兹比尔1427.82032
[5] Falkner,S.、Klein,A.和Hutter,F.(2018)BOHB:规模上稳健高效的超参数优化。arXiv预印本arXiv:1807.01774。
[6] Finn,C.、Abbeel,P.&Levine,S.(2017)用于深度网络快速适应的模型认知元学习。摘自:第34届国际机器学习会议论文集——第70卷,JMLR.org,第1126-1135页。
[7] Han,J.,Jentzen,A.和Weinan,E.(2018)使用深度学习求解高维偏微分方程。程序。国家。阿卡德。科学1158505-8510·Zbl 1416.35137号
[8] He,Y.,Lin,J.,Liu,Z.,Wang,H.,Li,L.-J.&Han,S.(2018)AMC:AutoML,用于移动设备上的模型压缩和加速。摘自:《欧洲计算机视觉会议记录》,第784-800页。
[9] Jaafra,Y.、Laurent,J.L.、Deruyver,A.和Naceur,M.S.(2018)深度神经网络架构搜索的元强化学习综述。arXiv预打印arXiv:1812.07995。
[10] Li,L.,Jamieson,K.,Desalvo,G.,Rostamizadeh,A.&Talwalkar,A.(2018)超带:一种新的基于强盗的超参数优化方法。J.马赫。学习。第18号决议,1-51·Zbl 1468.68204号
[11] Li,Y.和Osher,S.(2009)用于压缩传感的l1最小化的坐标下降优化;贪婪算法。反问题成像3,487-503·Zbl 1188.90196号
[12] Meng,X.和Karniadakis,G.E.(2020)从多保真数据中学习的复合神经网络:应用于函数逼近和PDE逆问题。J.计算。物理401、109020·Zbl 1454.76006号
[13] Mitchell,M.(1998)《遗传算法导论》,麻省理工学院出版社·Zbl 0906.68113号
[14] Pang,G.,Lu,L.和Karniadakis,G.E.(2019)《指纹:基于分数物理的神经网络》。SIAM J.科学。计算。第41页,A2603-A2626·Zbl 1420.35459号
[15] Pang,G.,Yang,L.和Karniadakis,G.E.(2019)神经网络诱导的高斯过程回归,用于函数逼近和pde解。J.计算。物理384,270-288·Zbl 1451.68242号
[16] Paulson,J.A.、Buehler,E.A.和Mesbah,A.(2017)动态系统中相关随机变量不确定性传播的任意多项式混沌。IFAC-PapersOnLine50,3548-3553。
[17] Qin,T.,Wu,K.&Xiu,D.(2019)使用深度神经网络的数据驱动控制方程近似。J.计算。物理395、620-635·Zbl 1455.65125号
[18] Raissi,M.、Perdikaris,P.和Karniadakis,G.E.(2019)《基于物理的神经网络:用于解决涉及非线性偏微分方程的正向和反向问题的深度学习框架》。J.计算。物理378、686-707·Zbl 1415.68175号
[19] Raissi,M.,Perdikaris,P.&Karniadakis,G.E.(2018)含时非线性偏微分方程的数值高斯过程。SIAM J.科学。计算40,A172-A198·兹比尔1386.65030
[20] Sirignano,J.和Spiliopoulos,K.(2018)Dgm:求解偏微分方程的深度学习算法。J.计算。《物理学》3751339-1364·兹比尔1416.65394
[21] Snoek,J.,Larochelle,H.&Adams,R.P.(2012)机器学习算法的实用贝叶斯优化。高级神经信息处理系统25,2951-2959。
[22] Snoek,J.、Rippel,O.、Swersky,K.、Kiros,R.、Satish,N.、Sundaram,N.,Patwary,M.、Prabhat,M.和Adams,R..(2015)使用深度神经网络的可伸缩贝叶斯优化。内部配置机。学习372171-2180。
[23] Tartakovsky,A.M.,Marrero,C.O.,Tartakowsky,D.&Barajas-Solano,D.(2018)学习参数和与物理的本构关系为深层神经网络提供了信息。arXiv预打印arXiv:1808.03398。
[24] Wan,X.和Karniadakis,G.E.(2006)任意概率测度的多元广义多项式混沌。SIAM J.科学。计算28901-928·Zbl 1128.65009号
[25] Zhang,D.,Lu,L.,Guo,L.&Karniadakis,G.E.(2019)《量化物理信息神经网络中的总不确定性以解决正向和反向随机问题》,J.Compute。物理397108850·Zbl 1454.65008号
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。