NeurIPS 2020 paper checker

NeurIPS2020 的文章可参考以下的清单阅读不同方向的论文,这里我就按照我感兴趣的方向进行总结了。 部分的文章还没有放出来,所以先放在这。

  1. BlockGAN: Learning 3D Object-aware Scene Representations from Unlabelled Images. [paper]

从 2D 图像中无监督地学习 3D 场景的表示学习。 本文主要提出了 BlockGAN 的架构,生成器首先将隐变量映射成背景、基本 3D 物体,再投影成 2D 图像。

  1. CircleGAN: Generative Adversarial Learning across Spherical Circles.

Not released.

  1. COT-GAN: Generating Sequential Data via Causal Optimal Transport. [paper]

本文提出了 COT-GAN 用于序列数据的生成。本文基于最优运输理论提出一种新的 adversarial loss,并且根据序列的特点对运输增加了关于时间因果的限制,并且提出了改进的 Sinkorn divergence —— mixed Sinkorn divergence.

序列数据的生成我还并不怎么了解,本文也比较偏理论,公式偏多,先 mark 下了。

  1. GANSpace: Discovering Interpretable GAN Controls. [paper].

这篇不用说了,早已拜读了,见 [Note],不过从格式上看,作者似乎是先投的 ECCV,然后转投的 NeurIPS ?

  1. Improving GAN Training with Probability Ratio Clipping and Sample Reweighting. [paper]

本文还是从 G 和 D 的梯度角度提出了两个 tricks 稳定 GAN 的训练: (1) probability ratio clipping. (2) sample re-weighting: 将 D 输出的 samples的得分的 exponential value 作为梯度回传时的重要性,以减少较差的 fake samples 引起比较大的梯度。

注: probabilty ratio clipping 是作者结合强化学习提出的稳定 G 的梯度的方法,强化学习我还不太了解,暂且放置不谈。

  1. Instance Selection for GANs. [paper]

这一篇比较有意思。 为了提高生成图像的质量,现有的方法包括:拒绝不真实的生成样本 和 latent truncation。 作者认为GAN学习的这部分的样本变得非常多余了,使得模型存在冗余。 作者直接在数据集中剔除数据流形上low-density的样本,促使模型可以使用之前多余的模型容量学习 high-density 的样本。 当然我认为模型的多样性也会受到影响。

  1. Top-k Training of GANs: Improving GAN Performance by Throwing Away Bad Samples. [paper] mark

这一篇稳定 GAN 的训练的方法非常非常简单,思路上和 5 不谋而合,也是降低 bad fake sample 的提供的梯度,本文甚至直接不使用least unrealistic fake sample 的梯度,只使用前 top-k 的 D scores 的生成样本提供生成器的梯度。超参数 k 使用课程学习的方法,逐渐从 batch size 降低到 0.75 batch size。 作者在实验中想要说明 worst samples 提供的梯度会使得优化偏离 nearest mode。 不过本文只关注了 G 的梯度,而没关注 D 的梯度。

注:本文提交到 NeurIPS 的最新版在 arxiv 上好像还没更新,需要关注下。

  1. Your GAN is Secretly an Energy-based Model and You Should Use Discriminator Driven Latent Sampling. unread

GAN 和能量概率模型的联系。

  1. Teaching a GAN What Not to Learn.

Not released.

  1. DeepI2I: Enabling Deep Hierarchical Image-to-Image Translation by Transferring from GANs.

Not released.

  1. Hierarchical Patch VAE-GAN: Generating Diverse Videos from a Single Sample. [paper]

受 SinGAN 启发的 Hierarchical Patch VAE-GAN 模型,目的是从单张图像中学习,生成多样的视频。


除此之外还有其他我不太了解的和 GAN 结合的领域的文章:

  • GS-WGAN: A Gradient-Sanitized Approach for Learning Differentially Private Generators.

针对 GAN 的隐私保护(梯度清除)

  • GAN Memory with No Forgetting. [paper]

对 GAN 的 lifelong learning (incremental learning) 的研究。