Implementation

MoCoGAN: Decomposing Motion and Content for Video Generation

はじめに

「GANで画像を生成してみた」系の記事はたくさんありますが、動画の生成はなかなかないんじゃないかと思います。

なぜなら、従来のGANによる動画生成1は人間の影らしきものを動かすのがやっとで、画像生成と比べて技術が遅れていたのです。しかし本日ご紹介するMoCoGAN2は、7月にarxivで論文が発表されたばかりの論文で、既存研究に比べて圧倒的に綺麗な動画を生成することができます。

この記事では、MoCoGANのArchitecture及び、Pytorchによる実装のポイントを解説していきます。

github上の実装はこちらになります。https://github.com/DLHacks/mocogan
また筆者による実装はまだ公開されていないようなので、これがおそらく初の公開実装となるかと思います。(※17/9/30時点)
スターをいただけると励みになります……!!!

モデル

新規性

  • Generatorの潜在空間をContent SubspaceとMotion Subspaceにわけた。
  • 上記によって潜在空間のもつれをほどき、精度向上。
  • 可変長のビデオを生成できる。
  • content(人物など)を固定してmotionを変えたり(歩かせる、手を振らせるなど)、逆にmotionを固定してcontentを変えるなど、柔軟な生成が可能になる。

Architecture

MoCoGANは4つのモデルの組み合わせでできています。

  1. 画像Discriminator: 生成されたビデオのうち1フレームを受け取り、真の画像か偽の画像か判断する2DのCNN。
  2. 動画Discriminator: 生成された(Tフレームからなる)ビデオを受け取り、真の動画か偽の動画か判断する3DのCNN。
  3. 画像Generator: 1枚の画像を生成する。input noiseの\(z\)は、contentに対応する\(z_C\)とmotionに対応する\(z_M\)の結合からなる\((z = [z_C, z_M]^{\top})\)、2Dの逆CNN。
  4. GRU: Gaussian noiseの\(\epsilon\)から、motion noiseの\([z_M^{(1)}, z_M^{(2)}, ……, z_M^{(K)}]\)を生成する。

(画像は論文中より)

Discriminators詳細

realまたはfakeの動画から、1枚の画像とTフレームの動画をサンプリングして(図中の\(S_1, S_T\))それぞれDiscriminatorに渡します。生成される動画は可変長ですが、動画Discriminatorは3Dの畳み込みを使用するので固定長しか受け取れない点に注意。

先行研究(VGAN, temporal-GAN) では動画Discriminatorしか使っていなかったのに対して、画像Discriminatorも使っています。これによって、contentの本物っぽさを画像Discriminatorに任せることができるようになり、動画Discriminatorがmotionの本物っぽさの学習に注力できる、というメリットがあります。

Generators詳細

今回登場するGeneratorはあくまで一つの潜在変数zに対して1枚の画像を生成します。そこで、K個の潜在変数\([z^{(1)}, z^{(2)}, ……, z^{(K)}]\)を入力することで、K枚のフレームからなる動画を生成させることにします。(先行研究のVGANが、Generatorに三次元の逆畳み込みで動画を直接生成させている点との違い)

このK枚のフレームの中で、写っているcontent(例えば人物)はいつも同じであると仮定しましょう。すると、\(z_C^{(t)}\)はある動画内のフレームですべて同じであると考えられます。(すべてのtに対して、\(z_C^{(t)} = z_C\))

これに対してmotion noiseの\(z_M^{(t)}\)は、ある動画内での動き(motion)を吸収するために、フレームを通じて変化し続けなければなりません。そこで、GRUによって系列的に生成することにします。(\([z_M^{(1)}, …, z_M^{(K)}] = GRU([\epsilon^{(1)}, …, \epsilon^{(K)}])\))

論文からの変更点

本実装では論文上のモデルに1点大きな変更を加えているので、その点について先に解説します。

論文では、\([\epsilon^{(1)}, ……,\epsilon^{(K)}]\)がi.i.dでガウス分布に従うと書かれています。しかし、ランダムな系列\(\epsilon\)をGRUに与えて、意味のある系列\([z_M^{(1)}, …, z_M^{(K)}]\)を生成することはできないように思えます。もし意味のある系列が生成されるならば、それはinputである\([\epsilon^{(1)}, ……,\epsilon^{(K)}]\)を無視して、隠れ層の初期値\(h_0\)のみに依存するようにモデルが学習されているのではないでしょうか。

実際、(\(h_0\)が固定という条件のもとで)\([\epsilon^{(1)}, ……,\epsilon^{(K)}] \)をi.i.dにサンプリングしてモデルを訓練したところ、\([\epsilon^{(1)}, ……,\epsilon^{(K)}] \)を変化させても、毎回同じmotionが生成されてしまいました。

そこで本実装では、\(\epsilon^{(1)}\)のみをランダムサンプリングし、\(\epsilon^{(t)} = GRU(\epsilon^{(t-1)})\)のように、GRUの出力自身を次の期の入力としました。これにより、\(\epsilon^{(1)}\)を変化させることで、毎回違うmotionが生成できるようになりました。

(元の論文がこの問題をどうクリアしているのかわからないけど、\(\epsilon^{(t)}\)を全部同じ値にしているか、\(h_0\)の初期化でmotionのvariationを作っているかしている可能性があります。)

このあたり、私の理解が間違っていましたら突っ込みをお願いしますσ(^_^;)

拡張

action labelで条件付けることができます(笑わせる、怒らせる等)。こちらは未実装です。

実装

モデルの部分のみご紹介します。trainの詳細はGithubのコードをご覧下さい。

画像Discriminator、画像Generator

pytorch公式のexampleを参考にしました。

動画Discriminator

基本的に画像Discriminatorの2次元のConvを3次元のConvに変更しただけです。途中で挟むFlattenを自分で定義する必要があります。

GRU

  • 前述のように\(\epsilon^{(t)} = GRU(\epsilon^{(t-1)})\)としています。
  • 出力の前にBatchNormを噛ませています\(( z_M^{(t)} = BN( GRU(\epsilon^{(t)}) ) )\) 。
  • \(z^{(t)} = [z_C, z_M^{(t)}]^{\top}\)を考えるに、\(z_M\)の平均分散を\(z_C\)(ガウス分布からサンプリング)と揃えたほうがいいんじゃないかと思ってこの処理を入れてみました。本当に効いているかは未検証ですすみません。
  • parameterの初期化では、forget gateに入るbias項が大きくなるようにしています。
  • これによって過去の情報を忘れやすくなり、勾配消失を防ぐ効果があります。

実験

実験ではこちらのデータセットを使いました。3

人間が走る、手をふるなどのactionを行うビデオが93個あります。1つのビデオあたり約3秒で、全体で約244秒(画像にして6108フレーム)と、比較的小さなサンプルサイズです。

1batchあたり16サンプルで12万iteration回した結果がこちら。

ジャンプのような激しい運動だとぼやけますが、手を振るくらいの簡単な動作ならちゃんとしたヒューマンが生成できました!!

感想

GANは学習が不安定だとよく聞きますが、MoCoGANは学習のテクニックをほぼ使わず(one-sided label smoothingのみ)、またサンプルも少なめで生成がうまくいったので驚きです。それだけ「MotionとContentの分離で潜在空間のもつれをほどく」というアイデアが機能しているのでしょうか。

ここまでお付き合いいただきありがとうございました。


  1. C. Vondrick, H. Pirsiavash, and A. Torralba. Generating videos with scene dynamics. In Advances In Neural Information Processing Systems, 2016. 
  2. Sergey Tulyakov. Ming-Yu Liu. Xiaodong Yang. Jan Kautz. MoCoGAN: Decomposing Motion and Content for Video Generation, arXiv preprint arXiv:1707.04993, 2017. 
  3. L.Gorelick,M.Blank,E.Shechtman,M.Irani,andR.Basri. Actions as space-time shapes. PAMI, 29(12):2247–2253, 2007. http://www.wisdom.weizmann.ac.il/%7Evision/SpaceTimeActions.html 
Bitnami