controlnetからアニメーション
reference_onlyが動画の時間的一貫性に役立ちそうだという良さげなワークフロー!
ジャクニコ版Godfatherの作例w
🇯🇵語手順は(2枚めを)Bard邦訳なので誤訳ご免
https://gyazo.com/b2efac542949e84d44d7cae7728315a5https://gyazo.com/72fbb3f8009b63c2e17702b377c1e310
AIを使ったアニメーションの実験。
①適当なパラパラ漫画を描く(今回は5枚)
③AIでフレーム間を補完(計25枚)
LoRAとかで補正したらもっと精度上がりそう。
https://video.twimg.com/tweet_video/FwDZFkQagAAy5JN.mp4https://video.twimg.com/tweet_video/FwDZFj0aUAUp5US.mp4
ControlNetのボーン動画を入力するとアニメーションを生成できるAutomatic1111の拡張機能を作りました!
もう少しテストして今日か明日にgitに公開します!
https://video.twimg.com/ext_tw_video/1628713211913699328/pu/vid/682x1278/0-Jig_4gYpVcD0LV.mp4
一貫性たけーなwogikaze.icon
なぜこんなに安定しているのか?基素.icon
video to videoをしているはず
出力結果のモデルはNAI系に見える
元のvideoと利用モデルわからない
LoRA等でキャラクターを学習してプロンプトでそれが出るように調整してる?
Denoising strengthがそもそも低そうnomadoor.icon
OpenposeとCannyかDepthの併用はしてるのかな
mihoyoは原神ではMMDモデルを配布しているけど、今回はまだじゃない?
本国だとしてるのかなあ
してなさそう
全ての動画がmodelの出典が雑すぎるw
Motion:JohnyL
https://www.youtube.com/watch?v=jDY111cZK-Q
でモーション配布してる
PUBGのモーションをぶっこぬいているっぽい...
Audio:Roll'n Rock
うーん、Live3Dを使うならControlNetいらなくない?使ってないんじゃないかな? こう作ってるのかな?基素.icon
MMDの3Dモデルでダンスを踊らせて出力
openpose + cannyでnoiseを低めにしてVideo Loopback
利点
viode loopbackを使っているので普通のimage2imageよりちらつきが抑えられる
モデルをAOM3からDeffmix2に変えたのでしっかり顔の雰囲気変わった
100枚位のキーフレームにだけCannyかければいいから圧倒的に作成時間短縮されるしチラつきほぼ無いし凄ない????