12. Generating Images with Recurrent Adversarial Networks (GRAN)
Daniel Jiwoong Im, Chris Dongjoo Kim, Hui Jiang, Roland Memisevic
Arxiv
※まだちゃんと読んでないのでざっくり
概要
GANの生成を系列的に行う(1度にすべて書
く代わり複数回分けて書く)
LAP-GANが粗い画像から徐々に細かい部分を
生成するのに対してGRANはRNNが勝手に
生成する点が違う
結果
かなりきれいな画像が生成できる(中央図)
右図は徐々に生成されている様子
13. f-GAN: Training Generative Neural Samplers
using Variational Divergence Minimization
Sebastian Nowozin, Botond Cseke, Ryota Tomioka
概要
GANの目的関数 (JS Divergence)を一般化した
f-divergenceを利用するf-GANを提案
それぞれのdivergenceについてGANにどれが良
いか検証
結果
GAN:
f-GAN:
尤度を調べると,JSよりKLのほうが高い
その他諸々+理論的考察
“Note that the difference in the learned distribution
Qθ arise only when the generator model is not rich
enough.”
<-この辺はよくわかってないです
KL
R-KL
Hei
JS
NIPS2016
14. Improved Techniques for Training GANs
Tim Salimans, Ian Goodfellow, Wojciech Zaremba, Vicki Cheung, Alec Radford, Xi Chen
NIPS2016
概要
GANをうまく学習させるための経験則を5つ
提案
1. Feature matching
2. Minibatch discrimination
3. Historical averaging
4. One-side label smoothing
5. Virtual batch normalization
半教師あり学習でState-of-the-art
画像を評価する仕組みも提案
結果(一部)
- MNISTでラベル20枚で誤差1%くらい
- ラベル20枚ということはほぼOne-Shot
- SVHNだとラベル1000枚でエラー率今まで
の約半分(左表)
- 生成事例もキレイ(中央図)
- 左の経験則のどれが重要かをの検証(右
図)
20. Generative Adversarial Text to Image Synthesis
Scott Reed, Zeynep Akata, Xinchen Yan, Lajanugen Logeswaran, Bernt Schiele, Honglak Lee
ICLR2016
概要
文章で条件付けた画像を生成
GANとの違いは,
1. Gを文章で条件付け(左図)
2. 生成された画像のR/Fだけでなく,文章と
画像のペアが正しいかどうかも考慮
3. 補完によりデータ追加
結果
見たことない記述でも尤もらしく生成
(右2図)
“Blue bird with black beak” ->
“Red bird with black beak”
など2つの文の間を保管すると妥当そうな結果
21. Pixel-Level Domain Transfer
Donggeun Yoo, Namil Kim, Sunggyun Park, Anthony S. Paek, In So Kweon
Arxiv
概要
異なるドメインの画像を生成するGANモデル
違いは
1. ランダムノイズからではなくソース画像
からターゲット画像を生成
2. ターゲット画像のR/Fだけでなく,ター
ゲット画像とソース画像のペアの妥当性も
考慮
22. Deep Multi-scale Video Prediction Beyond Mean Square Error
Michael Mathieu, Camille Couprie, Yann LeCun
概要
動画のフレーム予測にATを利用
Optical Flowとかと比べてかなりきれいに生成
できる(右図)+
http://cs.nyu.edu/~mathieu/iclr2016extra.html
http://cs.nyu.edu/~mathieu/iclr2016.html
モデルの詳細(左図)
動画を生成するネットワークGとG(z)と本物の
動画を区別するDを訓練
G部分が変わっただけであとは普通のGAN
※GAN以外にも工夫しているがここでは飛ば
します
結果
既存手法よりきれいな画像が生成できる
定性評価+類似度+シャープさで比較
ICLR2016