🦊AnimateDiff
👈 |
AnimateDIffはStable Diffusionでtext2video / video2videoをするためのフレームワークです 🦊ComfyUIでやってみる
🪢カスタムノードのインストール
motion moduleのダウンロード
ComfyUI managerのメニューからInstall Models → mm_sd_v15_v2と検索し、mm_sd_v15_v2をInstall
https://gyazo.com/66cb6b7098600c96cd573a32365d35cc
🟪batch sizeがそのまま生成するフレーム数になります
🟨AnimateDiffのメインエンジン、model_nameに先程ダウンロードしたmm_sd_v15_v2を指定します
🟨ADE_AnimateDiffUniformContextOptionsのパラメータですが、よくわかりません
基本デフォルトのままで良いでしょう
lengthがoverlapよりも小さくなると失敗します
closed_loopをtrueにすると、最初のフレームと最後のフレームが綺麗に繋がる動画ができます
🟩フレームレートと動画の形式を指定して、動画として保存します
🤖他のMotion Moduleを使う
mm_sd_v15以外にも公式からのバージョン違いやファインチューニングモデルがあります
基本的には新しいものを使いますが、古いモデルで暴れた絵を作るのもまた一興
ダウンロードしたモデルはComfyUI\custom_nodes\ComfyUI-AnimateDiff-Evolved\modelsに置きます
🎥MotionLoRA
ズームインやパン等、カメラの動きを指定できるMotionLoRAというものが公式から出ているので使ってみましょう LoRAのダウンロード
ComfyUI\custom_nodes\ComfyUI-AnimateDiff-Evolved\motion_loraに置きます
https://gyazo.com/ad27b7dc477d3587998495de300f93fb
🚨基本的にv2のMotion Moduleでしかうまく動きません
なんとなくそんなカメラワークになってるはずです
ConttolNetを使えば参照動画からの動きの抽出は確かにできますが、元の動画と同じ等身の人間しか生成できなかったり、例えば車のドリフト動画から猫がスライディングしている動画なんてものは作れませんでした
MotionDirectorはより動きを抽象化させて学習するのでより汎用性が高い、これから期待の技術です