AAE对抗自编码器/GAN与VAE的区别

zhangsh00 2020-06-16

译自:https://hjweide.github.io/adversarial-autoencoders

1.自编码器AE作为生成模型

我们已经简要提到过,编码器输出的属性使我们能够将输入数据转换为有用的表示形式。在使用变分自动编码器的情况下,解码器已受过训练,可以从类似于我们选择的先验样本的样本中重建输入。因此,我们可以从此先验分布中采样数据点,并将其馈送到解码器中,以在原始数据空间中重建逼真的外观数据点。

不幸的是,变分自动编码器通常会在先验分布的空间中留下一些区域,这些区域不会映射到数据中的实际样本。对抗性自动编码器旨在通过鼓励编码器的输出完全填充先验分布的空间来改善此情况,从而使解码器能够从先验采样的任何数据点生成逼真的样本。对抗性自动编码器通过使用两个新组件,即鉴别器和生成器,来代替使用变分推理。接下来讨论这些。

2.训练更新过程

AAE对抗自编码器/GAN与VAE的区别

下面这张图片似乎更加清晰:

AAE对抗自编码器/GAN与VAE的区别

图片来自:https://towardsdatascience.com/a-wizards-guide-to-adversarial-autoencoders-part-2-exploring-latent-space-with-adversarial-2d53a6f8a4f9

上面链接中比较清楚地讲解了AAE两阶段的训练过程:

https://hjweide.github.io/adversarial-autoencoders

相关推荐