A Hierarchical Latent Vector Model for Learning Long-Term Structure in Music
1枚まとめ
どんなもの?
#ICML
#2018
#Monophonic
でもドラムもやってるんだよな・・・
#Single-track
MusicVAE
GoogleのMagentaプロジェクト
Adam Roberts
Google Brain
長い構造のsequential dataをVAEでモデリングする(Recurrent VAE)のは難しかったが、階層的なrecurrentなデコーダーを利用することでposterior collapseを回避することができた
先行研究と比べてどこがすごい?
似たようなrecurrent VAEとは、decoderの構造が異なり(階層的なdecoder)、それによってposterior collapseを回避
Variational Recurrent Auto-Encoders
Generating Sentences from a Continuous Space
Improved Variational Autoencoders for Text Modeling using Dilated Convolutions
自己回帰モデルのdecoderを用いたもの
A hybrid convolutional variational autoencoder for text generation
PixelVAE: A latent variable model for natural images
Variational lossy autoencoder
Improved variational inference with inverse autoregressive flow
SketchRNNとは非常に似た構造を持つ?
A Neural Representation of Sketch Drawings
階層的なAutoencoder
A hierarchical neural autoencoder for paragraphs and documents
技術や手法のキモはどこ?
どうやって有効だと検証した?
議論はある?
次に読むべき論文は?
リンク
https://arxiv.org/abs/1803.05428
https://www.slideshare.net/DeepLearningJP2016/dla-hierarchical-latent-vector-model-for-learning-longterm-structure-in-music
#survey
#Music_Generation