Bring up a good habit: Check related papers everyday! 主要针对 arxiv 的文章:
2020-10-26
arxiv 10 22
- Few-Shot Adaptation of Generative Adversarial Networks. [paper]
本文的目标是: Adapt pre-trained GAN to taget domain in few-shot settings. 本文将预训练的 GAN 的 G 和 D 的每层 weight 进行 SVD 分解,将特征值作为 adaptation 中可学习的参数。其实将 disentangled 表示带入 adaptation 中也是一个思路。
- StyleGAN2 Distillation for Feed-forward Image Manipulation. [paper]
StyleGAN2 和 latent manipulation 的应用: 作者使用 latent manipulation 和一个 pre-trained 的 Face Classifier 寻找 high confidence 的人脸 attribute 操作方向。由此得到 paired 的不同 attribute 的对应人脸数据,用于训练 Pix2PixHD 完成 Image2Image 任务。
2020-10-22
会议论文
- Enjoy Your Editing: Controllable GANs for Image Editing via Latent Space Navigation. [paper].
新的隐空间操作方法,无非在 gan steerability
上增加了几个 loss,考虑了 local 方法,以及同时学习多个方向。整体看起来创新性不足,比较水。
- Identifying Informative Latent Variables Learned by GIN via Mutual Information. [paper]. (Not-checked)
针对 GIN (general incompressible-flow networks) 的 DRL 的工作。 本文问题是对预训练的 GIN,识别有效的隐变量。 本文建议使用互信息量衡量。
arxiv 1022, 1021, 1020
- Semantics-Guided Representation Learning with Applications to Visual Synthesis. [paper]. (Not-checked)
本文的问题是 AE/VAE 模型的隐空间的语义控制方向的寻找,作者将度量学习中的 triplet loss
引入。
- LT-GAN: Self-Supervised GAN with Latent Transformation Detection. [paper].
本文作者提出了一种新的 GAN Tranining methods (LT-GAN),作者认为 GAN 应当保证良好的 latent steerability 性质。 LT-GAN 采用了自监督的方式,在模型引入了一个额外的分类器 A,判别 D 输出的原图和 modified 图像的 feature 之差是否能够对原始的随机扰动 进行重建。
LT-GAN 在训练中加倍了训练时间,但是没有引入过多的计算量 (额外的分类器参数量不大),在提升图像的多样性的同时,增强了模型的 latent steerability 能力。
- Self-supervised Co-training for Video Representation Learning. [paper].
2020-10-12
ICLR2021 Under Review
Papers about disentangled representation learning
.
- Disentangling Action Sequences: Discovering Correlated Samples . https://openreview.net/forum?id=a0yodLze7gs
Keypoints: I. Step-by-step 的 DR 学习思路。
- Multi-View Disentangled Representation. https://openreview.net/forum?id=RSn0s-T-qoy
Keypoints: Multi-view 的 DR 学习(其实看起来就是组监督)。
- Disentangled Recurrent Wasserstein Autoencoder. https://openreview.net/forum?id=O7ms4LFdsX
Sequential Data 的生成与 DR 学习。
2020-10-11
ICLR2021 Under Review
- Efficiently Disentangle Causal Representations. https://openreview.net/forum?id=Sva-fwURywB
同样是一篇考虑因果关系的 DR 学习。
2020-10-10
Arxiv:
- On the Evaluation of Generative Adversarial Networks By Discriminative Models. https://arxiv.org/abs/2010.03549.
使用孪生神经网络评价GAN生成的图像,孪生神经网络输入一对图像,输出二者是否属于同一类。 在 unconditional generation 的情况下,先通过孪生神经网络的 feature 得到 fake samples 最近的真实样本,由真实样本的 label 使用 majority vote 决定fake sample 的类别 C,衡量 fake sample 和最近的且类别为 C 的真实样本的距离。
ICLR2021 Under Review
- Disentangled Representations from Non-Disentangled Models. https://openreview.net/forum?id=VCAXR34cp59
从 pre-trained GAN 中提取 diensentangled 表示。 两阶段法:首先使用 Closed-Form 等无监督学习方法获取隐空间的正交的移动方向,然后将隐变量在这些正交方向上的投影看成 disentangled 的表示,以此训练一个 Encoder。 除此之外,作者提出了一种新的方向寻找方法: 使用更高层的输出的 Jacobian 矩阵的主成分。
思考的问题很有意思(我也考虑过这种问题)。
-
On Disentangled Representations Learned From Correlated Data. https://openreview.net/forum?id=1ibNKMp8SKc. Weak-supervised;
-
Disentangled Generative Causal Representation Learning. https://openreview.net/forum?id=agyFqcmgl6y Supervised; VAE-based;
-
Unsupervised Disentanglement Learning by intervention. https://openreview.net/forum?id=yxB3sPaqlCZ. Unsupervised; AutoEncoder.
三篇引入变量相关性(因果性)的 disentangled representation 学习文章。 Unchecked now.
涉及变量间的因果关系和相关性的 disentangled 表示学习的领域接触的还较少,在引文中看到的相关文章有:
-
Is Independence all you need? On the Generalization of Representations Learned from Correlated Data. https://arxiv.org/abs/2006.07886
-
Robustly disentangled causal mechanisms: Validating deep representations for interventional robustness. http://proceedings.mlr.press/v97/suter19a.html.