×

GAN的一些理论性质。 (英语) Zbl 1451.62107号

生成性对抗网络(GAN)是由两个神经网络在零和博弈框架中相互竞争的系统实现的生成算法I.古德费罗等人,[“生成性对抗网络”,高级神经信息处理系统27,2672–2680(2014)]。本文的目的是对原始GANs算法进行理论研究。在第二节中,根据Jensen-Shannon散度分析了生成过程的一些最优性。第三节讨论近似性质,其中一节表明Jensen-Shannon散度是一个合适的准则。第四节详细讨论了统计特性。研究了描述经验选择生成器的参数的大样本特性。第五部分是结论和进一步的研究,第六部分是结果的证明。

MSC公司:

62M45型 神经网络及从随机过程推断的相关方法
2012年12月62日 参数估计量的渐近性质
60F05型 中心极限和其他弱定理
68T01型 人工智能的一般主题
91A05型 2人游戏
PDF格式BibTeX公司 XML格式引用

参考文献:

[1] Abadi,M.、Agarwal,A.、Barham,P.、Brevdo,E.、Chen,Z.、Citro,C.、Corrado,G.S.、Davis,A.、Dean,J.等人(2015)。TensorFlow:用于大规模机器学习的系统。可在https://www.tensorflow.org/。软件可从tensorflow.org获得。
[2] Angles,T.和Mallat,S.(2018)。生成网络作为带有散射变换的逆问题。在学习代表国际会议上。
[3] Arjovsky,M.和Bottou,L.(2017)。面向生成性对抗网络训练的原则方法。在学习代表国际会议上。
[4] Arjovsky,M.、Chintala,S.和Bottou,L.(2017)。Wasserstein生成性对抗网络。第34届国际机器学习会议论文集(D.Precup和Y.Whye Teh编辑)70 214-223。机器学习研究论文集。
[5] Bojanowski,P.、Joulin,A.、Lopez Paz,D.和Szlam,A.(2018)。优化生成网络的潜在空间。第35届国际机器学习会议论文集(J.Dy和A.Krause,eds.)80 600-609。机器学习研究论文集。
[6] Devroye,L.(1997)。密度估计中的通用平滑因子选择:理论与实践。测试6 223-320·Zbl 0949.62026号 ·文件编号:10.1007/BF02564701
[7] Donahue,C.、Lipton,Z.C.、Balsubramani,A.和McAuley,J.(2018)。语义分解生成性对抗网络的潜在空间。在学习代表国际会议上。
[8] Dziugaite,G.K.、Roy,D.M.和Ghahramani,Z.(2015)。通过最大平均差优化训练生成性神经网络。《第三十一届人工智能不确定性会议论文集》(M.Meila和T.Heskes编辑)258-267。阿灵顿AUAI出版社。
[9] Endres,D.M.和Schindelin,J.E.(2003年)。概率分布的一种新度量。IEEE传输。通知。理论49 1858-1860·Zbl 1294.62003年 ·doi:10.1109/TIT.2003.813506
[10] Goodfellow,I.(2016)。NIPS 2016教程:生成性对抗网络。可从arXiv:1701.00160获取。
[11] Goodfellow,I.、Pouget-Abadie,J.、Mirza,M.、Xu,B.、Warde-Farley,D.、Ozair,S.、Courville,A.和Bengio,J.(2014)。生成性对抗网络。《神经信息处理系统进展》(Z.Ghahramani、M.Welling、C.Cortes、N.D.Lawrence和K.Q.Weinberger编辑)27 2672-2680。Curran Associates,Red Hook公司。
[12] Liang,T.(2018)。关于生成性对抗网络学习密度的良好程度:非参数和参数结果。可从arXiv:1811.03179获取。
[13] Lipton,Z.C.和Tripathi,S.(2017年)。从生成性对抗网络中精确恢复潜在载体。可在arXiv:1702.04782购买。
[14] Liu,S.、Bousquet,O.和Chaudhuri,K.(2017年)。生成性对抗学习的近似性和收敛性。神经信息处理系统进展(I.Guyon、U.V.Luxburg、S.Bengio、H.Wallach、R.Fergus、S.Vishwanathan和R.Garnett编辑)30 5551-559。Curran Associates,Red Hook公司。
[15] McDiarmid,C.(1989)。关于有界差分法。《组合学调查》,1989年(诺里奇,1989年)。伦敦数学学会讲座笔记系列141 148-188。剑桥大学出版社,剑桥·Zbl 0712.05012号
[16] Mirza,M.和Osindero,S.(2014)。条件生成对抗网。可从arXiv:1411.1784获得。
[17] Nowozin,S.、Cseke,B.和Tomioka,R.(2016)。f-GAN:使用变分散度最小化训练生成神经采样器。《神经信息处理系统进展》(D.D.Lee、M.Sugiyama、U.V.Luxburg、I.Guyon和R.Garnett编辑)29 271-279。Curran Associates,Red Hook公司。
[18] Radford,A.、Metz,L.和Chintala,S.(2016)。深度卷积生成对抗网络的无监督表示学习。在学习代表国际会议上。
[19] Salimans,T.、Goodfellow,I.、Zaremba,W.、Cheung,V.、Radford,A.和Chen,X.(2016)。改进了训练GAN的技术。《神经信息处理系统进展》(D.D.Lee、M.Sugiyama、U.V.Luxburg、I.Guyon和R.Garnett编辑)29 2234-2242。Curran Associates,Red Hook公司。
[20] Srivastava,A.,Valkoz,L.,Russell,C.,Gutmann,M.U.和Veegan,C.S.(2017年)。使用隐式变分学习减少GAN中的模式崩溃。《神经信息处理系统进展》(I.Guyon、U.V.Luxburg、S.Bengio、H.Wallach、R.Fergus、S.Vishwanathan和R.Garnett编辑)30 3308-3318。Curran Associates,Red Hook公司。
[21] van Handel,R.(2016)。高维概率。普林斯顿大学APC 550讲稿。
[22] 张,P。
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。