×

耦合重要抽样估计器的降阶模型和生成模型。 (英语) Zbl 07505617号

摘要:在这项工作中,我们在不确定性量化的问题设置中,通过耦合降阶模型和生成模型,开发了一种重要抽样估计器。目标是估计复杂系统中感兴趣量(QoI)超过给定阈值的概率。为了避免大规模系统采样的高昂成本,通常考虑降阶模型在效率和精度之间进行权衡。然而,由于降维误差的存在,降阶模型给出的蒙特卡罗估计存在偏差。为了纠正偏差,我们仍然需要对精细模型进行采样。减少方差减少的一种有效方法是重要性抽样,其中我们使用生成模型估计降阶模型中的数据分布,并将其用于重要性抽样估计中的度量变化。为了补偿降阶模型的近似误差,需要在训练集中包含更多导致QoI略小于阈值的数据。虽然这些数据的数量可以通过后验误差估计来控制,但由于认识的不确定性,可能会保留多余的数据,这些数据的数目可能超过有效数据。为了解决这个问题,我们引入了加权经验分布来处理降阶模型中的数据。然后通过最小化生成模型与加权经验分布之间的交叉熵来训练生成模型。我们还将惩罚项引入目标函数中,以处理过拟合问题,从而提高鲁棒性。数值结果表明了该方法的有效性。

MSC公司:

62至XX 统计
68倍 计算机科学
PDF格式BibTeX公司 XML格式引用

参考文献:

[1] Dinh,L。;Krueger,D。;Bengio,S.,Nice:非线性独立成分估计(2014)
[2] Dinh,L。;Sohl-Dickstein,J。;Bengio,S.,使用实际NVP估算密度(2017年)
[3] Giles,M.B.,多层蒙特卡罗方法,数值学报。,259-328 (2015) ·Zbl 1316.65010号
[4] 古德费罗,I。;Pouget-Abadie,J。;米尔扎,M。;徐,B。;Warde Farley博士。;Ozair,S。;科尔维尔,A。;Bengio,Y.,《生成性对抗网络》,《高级神经信息处理》。系统。,2672-2680 (2014)
[5] Graves,A.,用递归神经网络生成序列(2013)
[6] 格罗弗,A。;达尔,M。;Ermon,S.,Flow-GAN:在生成模型中结合最大可能性和对抗性学习(2018)
[7] 洛夫,S。;Szegedy,C.,批量归一化:通过减少内部协方差偏移来加速深度网络训练(2015)
[8] 贾达克,M。;苏,C.-H。;Karniadakis,G.,随机对流方程的谱多项式混沌解,科学杂志。计算。,17319-338(2002年)·Zbl 1001.76084号
[9] Kingma,D.P。;Dhariwal,P.,Glow:具有可逆1x1卷积的生成流(2018)
[10] Kingma,D.P。;Ba,J.L.,ADAM:随机优化方法(2017)
[11] Kingma,D.P。;Salimans,T。;Jozefowicz,R。;陈,X。;Sutskever,I。;Welling,M.,用逆自回归流改进变分推理,高级神经信息处理。系统。,4743-4751 (2016)
[12] van den Oord,A。;Kalchbrenner,N。;Kavukcuoglu,K.,像素递归神经网络(2016)
[13] van den Oord,A。;Kalchbrenner,N。;葡萄酒,O。;Espeholt,L。;格雷夫斯,A。;Kavukcuoglu,K.,PixelCNN解码器条件图像生成(2016)
[14] 帕帕马卡里奥斯,G。;Pavlakou,T。;Murray,I.,用于密度估计的掩蔽自回归流(2018)
[15] Scott,D.,《多元密度估计:理论、实践和可视化》(2015),John Wiley&Sons,Inc·兹比尔1311.62004
[16] 万,X。;Rozovskii,B.L.,对数正态随机系数椭圆问题的Wick-Malliavin近似,SIAM J.Sci。计算。,35、5、A2370-A2392(2013)·Zbl 1284.65013号
[17] 张,L。;E、 W。;Wang,L.,Monge-Ampére flow for generative modeling(2018年)
[18] 张,T。;Yu,B.,《提前停止推进:收敛性和一致性》,《统计年鉴》,第33、4、1538-1579页(2005年)·兹比尔1078.62038
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。