Sinkhorn自动编码器
乔治·帕特里尼(Giorgio Patrini)、瑞安·范登伯格(Rianne van den Berg)、帕特里克·福雷(Patrick Forré
第35届人工智能不确定性大会论文集,PMLR 115:733-7432020年。
摘要
最优传输为学习生成自动编码模型提供了最大似然的替代方案。我们表明,最小化生成器和真实数据分布之间的$p$-Wasserstein距离相当于在潜在空间中对编码器聚集后验和先验之间的$p$-Waserstein距离进行无约束min-min优化,再加上重构误差。我们还确定了其权衡超参数作为生成器容量的作用:其Lipschitz常数。此外,我们证明了在任何一类通用逼近器(如确定性神经网络)上优化编码器足以任意接近最优值。因此,我们宣传这个框架,它适用于任何度量空间和以前的度量空间,是当前生成性自动编码目标的甜点。然后我们引入了Sinkhorn自动编码器(SAE),该编码器通过Sinkhorm算法的反向积来逼近并最小化潜在空间中的$p$-Wasserstein距离。SAE直接对样本进行处理,即将聚合后验分布建模为隐式分布,而无需对梯度估计进行重新参数化。因此,SAE能够以最小的适应性处理不同的度量空间和先验。我们证明了SAE在具有不同几何形状和先验的潜在空间上的灵活性,并与其他方法在基准数据集上进行了比较。
引用本文
相关材料