主页

文件

提交文件

新闻

编辑委员会

开源软件

程序(PMLR)

交易(TMLR)

搜索

统计

登录

常见问题

联系我们



RSS源

生成良好的对手网络如何学习分布

梁腾元; 22(228):1−41, 2021.

摘要

本文研究了在对抗框架和生成性对抗网络(GANs)下隐式学习分布的收敛速度,其中包括Wasserstein、Sobolev、MMD GAN和广义/模拟矩量法(GMM/SMM)作为特例。我们研究了大量客观评估指标下的参数和非参数目标分布。我们研究如何通过正则化的透镜获得GAN的有效统计保证。在非参数端,我们推导了对抗框架下分布估计的最优minimax速率。在参数端,建立了一般神经网络类(包括深度泄漏ReLU网络)的理论,该理论表征了生成器和鉴别器对的选择之间的相互作用。我们发现并分离了一个新的正则化概念,称为生成器-鉴别器对正则化,它揭示了与显式分布估计的经典参数和非参数方法相比,GANs的优势。我们开发了新的预言不等式作为分析GAN的主要技术工具,这些GAN具有独立的意义。

[腹肌][pdf格式][围兜]      
©JMLR公司2021(编辑,贝塔)