扩展物理信息神经网络(XPINN)何时能改进泛化?

@第{Hu2021WhenDE条,title={扩展物理知情神经网络(XPINN)何时提高泛化能力?},author={胡哲远(Zheyuan Hu)和阿米亚·迪利普·贾格塔普(Ameya Dilip Jagtap)以及乔治·埃姆·卡尼亚达基斯(George Em Karniadakis)和川口贤治(Kenji Kawaguchi)},期刊={ArXiv},年份={2021},体积={abs/2109.09444},网址={https://api.semanticscholar.org/CorpusID:237571629}}
该理论表明,XPINN的关键构建块,即域分解,引入了泛化的权衡,并选择了五个偏微分方程来显示XPINN何时比PINN表现得更好、相似或更差。

物理和等式约束人工神经网络的非重叠Schwarz型区域分解方法

一种采用广义接口条件的非重叠Schwarz型区域分解方法,适用于在正向和反向场景中基于物理信息的偏微分方程(PDE)机器学习,突出了其广泛的适用性和效率。

用边界和初始条件的代数包含改进PINN

这项工作探索了将被训练的模型从仅仅是一个神经网络转变为它的非线性变换的可能性,这种变换在代数上包括边界/初始条件,并证明了这种修改在一系列基准任务中可以显著提高性能,在不同的维度上,无需调整训练算法。

带区域分解的初始化增强物理信息神经网络(IDPINN)

提出了一种新的基于物理信息的神经网络框架IDPINN,该框架通过增强初始化和区域分解来提高预测精度,并利用接口上的平滑条件来提高预测性能。

研究PINN在有限时间爆破附近求解Burgers PDE的能力

这项工作在允许有限时间放大的条件下,导出了Burgers PDE的任意维PINN的误差界,并对据报道在有限时间放大附近训练PINN有用的函数正则化项给出了理论证明。

多域物理信息神经网络接口条件的元学习

证明了UCB和Thompson抽样的次线性后悔界,这在理论上保证了MAB的有效性,并在四个基准PDE族上显示了METALIC的优势。

ASPINN:解奇摄动微分方程的渐近策略

渐近物理信息神经网络(ASPINN)是物理信息神经网(PINN)和广义类物理信息神经网路(GKPINN)方法的推广,提出了一种基于渐近分析思想的分解方法。
...

基于物理信息的神经网络逼近Navier-Stokes方程的误差估计

结果表明,对于具有两个隐藏层的神经网络,潜在的PDE残差可以任意小,并且总误差可以根据训练误差、网络大小和求积点数来估计。

物理信息神经网络逼近偏微分方程的泛化误差估计

引入了一种抽象形式,并利用潜在PDE的稳定性特性,通过逼近PDE正问题的解,导出了PINN泛化误差的估计。

Adam:一种随机优化方法

本文介绍了Adam,一种基于低阶矩自适应估计的随机目标函数一阶梯度优化算法,并给出了收敛速度的遗憾界,该收敛速度与在线凸优化框架下的最佳结果相当。

逼近Kolmogorov偏微分方程的物理信息神经网络(PINNs)的误差分析

实验证明,PINN的大小和训练样本数仅随基础维数的多项式增长,使得PINN能够克服这种情况下的维数灾难。

用于传热问题的物理信息神经网络

PINN在各种原型传热问题中的应用,针对传统计算方法无法解决的特定现实条件,表明PINN不仅可以解决传统计算方法无法解决的不适定问题,但它们也可以弥合计算传热和实验传热之间的差距。

图神经网络的优化:跳跃连接和更深入的隐式加速

这项工作分析了线性化的GNN,并证明了尽管训练是非凸的,但在经过实际图形验证的温和假设下,可以保证以线性速率收敛到全局最小值。

浓缩咖啡杯上的流动:通过基于物理的神经网络从断层摄影背景的纹影推断三维速度和压力场

提出了一种基于物理信息神经网络(PINNs)的新方法,从Tomo-BOS成像获得的三维温度场快照中推断出完整连续的三维速度场和压力场。

内隐深度学习理论:具有内隐层的全球收敛

证明了深隐层的梯度动力学与浅显层的信赖域牛顿法的动力学之间的关系,表明了理解隐层的隐式偏差的重要性和这一课题的一个悬而未决的问题。

求解高维椭圆型方程的Deep-Ritz方法的先验推广分析

在假设偏微分方程的精确解位于一个合适的低复杂度空间(称为谱Barron空间)的前提下,证明了泛化误差的收敛速度与维数$d$无关。

线性偏微分方程残差最小化的神经网络误差估计

当可行解为神经网络时,提出了一个基于残差最小化的最小二乘法收敛性分析的抽象框架,并推导了强形式和弱形式残差最小化连续和离散公式的误差估计。