马斯肯

MaskGAN:更好的文本生成是通过填充的。神经文本生成模型通常是自回归语言模型或SEQ2SEQ模型。这些模型通过顺序地采样单词来生成文本,每个单词在前一个单词上被调节,并且对于一些机器翻译和总结基准是最先进的。这些基准常常由验证困惑定义,即使这不是生成文本的质量的直接度量。此外,这些模型通常通过最大似然和教师强制训练。这些方法非常适合于优化困惑,但可能会导致较差的样本质量,因为生成文本需要对训练时间中从未观察到的单词序列进行调节。我们建议使用产生式对抗网络(GANS)来改善样本质量,它显式地训练生成器以产生高质量的样本,并在图像生成中显示出许多成功。GANS最初被设计成输出可微的值,因此离散语言生成对他们来说是具有挑战性的。我们声称,验证困惑仅仅表明模型生成的文本的质量。我们介绍一个演员评论家条件的GaN填补了缺少的文本条件周围的环境。我们定性和定量的证据表明,这产生了更现实的条件和无条件文本样本相比,最大似然训练模型。

本软件关键词

这里的任何东西都将在支持画布元素的浏览器上被替换。