×

GAN近端Wasserstein。 (英语) Zbl 07495252号

尼尔森,弗兰克(编辑)等人,《信息的几何科学》。第五届国际会议,GSI 2021,巴黎,法国,2021年7月21日至23日。诉讼程序。查姆:斯普林格。莱克特。注释计算。科学。第12829页,第524-533页(2021年)。
摘要:我们介绍了一种新的生成性对抗网络训练方法,该方法通过在生成器上应用Wasserstein-2度量近似值。该方法基于Wasserstein信息几何。它通过将最优传输结构从概率空间拉回到参数空间,定义了一个参数化不变的自然梯度。我们获得了隐式深层生成模型参数更新的易于实现的迭代正则化子。实验表明,该方法在墙锁时间和Fréchet起始距离方面提高了训练的速度和稳定性。
关于整个系列,请参见[Zbl 1482.94007号].

MSC公司:

68泰克 人工智能

软件:

Wasserstein甘
PDF格式BibTeX公司 XML格式引用

参考文献:

[1] Amari,S.,《自然梯度在学习中的效率》,神经计算。,10, 2, 251-276 (1998) ·doi:10.1162/08997669830017746
[2] Amari,S.,《信息几何及其应用》(2016),东京:施普林格,东京·Zbl 1350.94001号 ·doi:10.1007/978-4-431-55978-8
[3] Arjovsky,M.,Chintala,S.,Bottou,L.:Wasserstein GAN。arXiv:1701.07875[cs,stat](2017)
[4] 是,N。;Jost,J。;Lé,HV;Schwachhöfer,L.,信息几何(2017),商会:施普林格,商会·Zbl 1383.53002号 ·数字对象标识代码:10.1007/978-3-319-56478-4
[5] Frogner,C.,Zhang,C.,Mobahi,H.,Araya-Polo,M.,Poggio,T.:在Wasserstein失落中学习。arXiv:1506.05439[cs,stat](2015)
[6] Goodfellow,I.等人:生成性对抗网。摘自:《神经信息处理系统进展》,第27卷,第2672-2680页。柯兰联合公司(2014)
[7] 约旦共和国。;Kinderlehrer,D。;Otto,F.,Fokker-Planck方程的变分公式,SIAM J.Math。分析。,29, 1, 1-17 (1998) ·Zbl 0915.35120号 ·doi:10.1137/S0036141096303359
[8] Li,W.:传输信息几何:概率单纯形上的黎曼演算。arXiv:1803.06360[数学](2018)
[9] 李伟(Li,W.)。;蒙图法尔,G.,《通过最佳运输实现自然梯度》,Inf.Geom。,1, 2, 181-214 (2018) ·Zbl 1409.62022号 ·doi:10.1007/s41884-018-0015-3
[10] Li,W.,Montüfar,G.:通过最优传输实现参数统计的Ricci曲率。arXiv:1807.07095[cs,数学,统计](2018)·Zbl 1450.62010年
[11] Montavon,G.,Müller,K.-R,Cuturi,M.:限制Boltzmann机器的Wasserstein训练。收录:Lee,D.D.,Sugiyama,M.,Luxburg,U.V.,Guyon,I.,Garnett,R.(编辑)《神经信息处理系统进展》,第29卷,第3718-3726页。Curran Associates Inc.(2016年)
[12] Ollivier,Y.:神经网络的黎曼度量I:前馈网络。Inf.推断。J.IMA 4(2),108-153(2015)·Zbl 1380.68337号
[13] Otto,F.,耗散演化方程的几何——多孔介质方程,Commun。部分差异。等于。,26, 1-2, 101-174 (2001) ·Zbl 0984.35089号 ·doi:10.1081/PDE-100002243
[14] Tong Lin,A.,Li,W.,Osher,S.,Montüfar,G.:GAN近端的Wasserstein。arXiv:2102.06862(2018)
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。