Bring up a good habit: Check related papers everyday! 主要针对 arxiv 的文章:

2020-10-26


arxiv 10 22

  1. Few-Shot Adaptation of Generative Adversarial Networks. [paper]

本文的目标是: Adapt pre-trained GAN to taget domain in few-shot settings. 本文将预训练的 GAN 的 G 和 D 的每层 weight 进行 SVD 分解,将特征值作为 adaptation 中可学习的参数。其实将 disentangled 表示带入 adaptation 中也是一个思路。

  1. StyleGAN2 Distillation for Feed-forward Image Manipulation. [paper]

StyleGAN2 和 latent manipulation 的应用: 作者使用 latent manipulation 和一个 pre-trained 的 Face Classifier 寻找 high confidence 的人脸 attribute 操作方向。由此得到 paired 的不同 attribute 的对应人脸数据,用于训练 Pix2PixHD 完成 Image2Image 任务。

2020-10-22


会议论文

  1. Enjoy Your Editing: Controllable GANs for Image Editing via Latent Space Navigation. [paper].

新的隐空间操作方法,无非在 gan steerability 上增加了几个 loss,考虑了 local 方法,以及同时学习多个方向。整体看起来创新性不足,比较水。

  1. Identifying Informative Latent Variables Learned by GIN via Mutual Information. [paper]. (Not-checked)

针对 GIN (general incompressible-flow networks) 的 DRL 的工作。 本文问题是对预训练的 GIN,识别有效的隐变量。 本文建议使用互信息量衡量。

arxiv 1022, 1021, 1020

  1. Semantics-Guided Representation Learning with Applications to Visual Synthesis. [paper]. (Not-checked)

本文的问题是 AE/VAE 模型的隐空间的语义控制方向的寻找,作者将度量学习中的 triplet loss 引入。

  1. LT-GAN: Self-Supervised GAN with Latent Transformation Detection. [paper].

本文作者提出了一种新的 GAN Tranining methods (LT-GAN),作者认为 GAN 应当保证良好的 latent steerability 性质。 LT-GAN 采用了自监督的方式,在模型引入了一个额外的分类器 A,判别 D 输出的原图和 modified 图像的 feature 之差是否能够对原始的随机扰动 ϵ{\epsilon} 进行重建。

LT-GAN 在训练中加倍了训练时间,但是没有引入过多的计算量 (额外的分类器参数量不大),在提升图像的多样性的同时,增强了模型的 latent steerability 能力。

  1. Self-supervised Co-training for Video Representation Learning. [paper].

2020-10-12


ICLR2021 Under Review

Papers about disentangled representation learning.

  1. Disentangling Action Sequences: Discovering Correlated Samples . https://openreview.net/forum?id=a0yodLze7gs

Keypoints: I. Step-by-step 的 DR 学习思路。

  1. Multi-View Disentangled Representation. https://openreview.net/forum?id=RSn0s-T-qoy

Keypoints: Multi-view 的 DR 学习(其实看起来就是组监督)。

  1. Disentangled Recurrent Wasserstein Autoencoder. https://openreview.net/forum?id=O7ms4LFdsX

Sequential Data 的生成与 DR 学习。

2020-10-11


ICLR2021 Under Review

  1. Efficiently Disentangle Causal Representations. https://openreview.net/forum?id=Sva-fwURywB

同样是一篇考虑因果关系的 DR 学习。

2020-10-10


Arxiv:

  1. On the Evaluation of Generative Adversarial Networks By Discriminative Models. https://arxiv.org/abs/2010.03549.

使用孪生神经网络评价GAN生成的图像,孪生神经网络输入一对图像,输出二者是否属于同一类。 在 unconditional generation 的情况下,先通过孪生神经网络的 feature 得到 fake samples 最近的真实样本,由真实样本的 label 使用 majority vote 决定fake sample 的类别 C,衡量 fake sample 和最近的且类别为 C 的真实样本的距离。

ICLR2021 Under Review

  1. Disentangled Representations from Non-Disentangled Models. https://openreview.net/forum?id=VCAXR34cp59

从 pre-trained GAN 中提取 diensentangled 表示。 两阶段法:首先使用 Closed-Form 等无监督学习方法获取隐空间的正交的移动方向,然后将隐变量在这些正交方向上的投影看成 disentangled 的表示,以此训练一个 Encoder。 除此之外,作者提出了一种新的方向寻找方法: 使用更高层的输出的 Jacobian 矩阵的主成分。

思考的问题很有意思(我也考虑过这种问题)。

  1. On Disentangled Representations Learned From Correlated Data. https://openreview.net/forum?id=1ibNKMp8SKc. Weak-supervised;

  2. Disentangled Generative Causal Representation Learning. https://openreview.net/forum?id=agyFqcmgl6y Supervised; VAE-based;

  3. Unsupervised Disentanglement Learning by intervention. https://openreview.net/forum?id=yxB3sPaqlCZ. Unsupervised; AutoEncoder.

三篇引入变量相关性(因果性)的 disentangled representation 学习文章。 Unchecked now.

涉及变量间的因果关系和相关性的 disentangled 表示学习的领域接触的还较少,在引文中看到的相关文章有:

  1. Is Independence all you need? On the Generalization of Representations Learned from Correlated Data. https://arxiv.org/abs/2006.07886

  2. Robustly disentangled causal mechanisms: Validating deep representations for interventional robustness. http://proceedings.mlr.press/v97/suter19a.html.