• About Cosense
  • Help
  • Log in
work4ai
AnimateDiff
https://animatediff.github.io/Project
https://arxiv.org/abs/2307.04725AnimateDiff: Animate Your Personalized Text-to-Image Diffusion Models without Specific Tuning
https://github.com/guoyww/animatediff/guoyww/AnimateDiff
https://colab.research.google.com/github/Linaqruf/sd-notebook-collection/blob/main/AnimateDiff.ipynb
text2imageモデルにmotion modeling moduleを組み込む

Motion Module
公式https://huggingface.co/guoyww/animatediff/tree/main
mm_sd_v14
mm_sd_v15
mm_sd_v15_v2
mm_sdxl_v10_beta
v3_sd15_adapter
v3_sd15_mm
AD Stabilized Motion
TemporalDiff

MotionLoRA
v2_lora_ZoomIn.ckpt他https://huggingface.co/guoyww/animatediff/tree/main
カメラワークができるように

https://ascii.jp/elem/000/004/155/4155433/
一般向け解説記事

いくつかのテクニック
https://www.reddit.com/r/StableDiffusion/comments/171l0ip/9_animatediff_comfy_workflows_that_will_steal/9 Animatediff Comfy workflows that will steal your weekend (but in return may give you immense creative satisfaction)

text2video
Related
  • Sort by
  • Related
  • Modified
  • Created
  • Last visited
  • Most linked
  • Page rank
  • Title
  • Links
  • TemporalDiff
    [Animatediff]の[Motion Module]>TemporalDiffは、より高解像度のデータセット(512x512)上でオリジナルのAnimateDiffの重みを微調整したものである。[. https://huggingface.co/CiaraRowles/TemporalDiff/tree/main]CiaraRowles/TemporalDiff[temporaldiff-v1-animatediff]
  • AD Stabilized Motion
    [Animatediff]の[Motion Module][. https://huggingface.co/manshoety/AD_Stabilized_Motion]manshoety/AD_Stabilized_Motion[mm-Stabilized_mid][mm-Stabilized_high][. https://twitter.com/toyxyz3/status/1698758677996748944]toyxyz
  • text2video
    [Awesome-Video-Diffusion]:[. https://github.com/showlab/Awesome-Video-Diffusion]Videoに関する技術をかき集めたページ
  • 🦊AnimateDiff
  • 「Emoquin - Switch」
  • AnimateDiff-MotionDirector
  • 半年後にAIはいったいどうなっているのか 2023年上半期
    [💬雑談]この半年でLLM[ChatGPT]画像生成
  • 【AnimateDiff】キャラと背景のアニメーションを別に生成して合成してimage2image
  • AI タイムライン
    📄 : テキスト / 🖼️ : 画像 / ♫ : 音楽・音声 / 🎥 : 動画 / 🐵 : 3D / 🤖 : エージェント / 🌏️ : 世界モデル / ⌚ : 流行table:2025IN OUT Topic2025/8/9 📄🖼️ 📄 [GPT-5]2025/8/6 📄 📄 [gpt-oss]
  • 雑談 2023年10月
  • 🦊CogVideoX
  • Animate Anyone
  • 半年後にAIはいったいどうなっているのか 2023年下半期
    前 [半年後にAIはいったいどうなっているのか 2023年上半期]次 [半年後にAIはいったいどうなっているのか 2024年上半期]7月が終わってしまう前になにか書こう[nomadoor.icon]ワークフローの複雑化今の画像生成AI、全然"text2image"じゃなくね?と誰かがredditで言っていた気がする
  • AniPortrait
  • MagicDance
  • ComfyUI-AnimateDiff-Evolved
    [. https://github.com/Kosinkadink/ComfyUI-AnimateDiff/][Kosinkadink]/ComfyUI-AnimateDiffforked from: [. https://github.com/ArtVentureX/comfyui-animatediff][ArtVentureX]/comfyui-animatediff[AnimateDiff]を使うための[ComfyUIカスタムノード]
  • MagicAnimate
    [. https://github.com/magic-research/magic-animate][. https://huggingface.co/spaces/zcxu-eric/magicanimate][. https://arxiv.org/abs/2311.16498][MagicAnimate: Temporally Consistent Human Image Animation using Diffusion Model]
  • SparseCtrl
  • MotionCtrl
  • LongAnimateDiff
    [. https://github.com/Lightricks/LongAnimateDiff?tab=readme-ov-file][Lightricks]/LongAnimateDiff[. https://huggingface.co/Lightricks/LongAnimateDiff]Lightricks/LongAnimateDifflt_long_mm_16_64_frames.ckpt
  • FreeInit
  • AnimateDiff × prompt travelで一貫性のある表情差分を作る
  • 【AnimateDiff】image2video with inpainting
  • AnimateDiffでアニメ作成
    > [Baku(@bk_sakurai) https://twitter.com/bk_sakurai/status/1718240073999843761]> *[AnimateDiff]で「アニメ」がつくれるか> [. https://note.com/bakushu/n/n976466e5b0e4] #comfyui #animatediff #aiart> [https://video.twimg.com/tweet_video/F9hqBlpbAAAdj4u.mp4]
  • AnimateDiff prompt travel
    [. https://github.com/s9roll7/animatediff-cli-prompt-travel][s9roll7]/animatediff-cli-prompt-travel[region prompt]に対応[AnimateDiff]
  • 【第1回】生成AIなんでもLT会
    [. https://genai-nandemo-lt.connpass.com/event/291568/]> 本LT会は、生成AIを対象としたLT会です。 最近大流行中の生成AIですが、発表の場がLLMに偏っており、動画や画像、音声生成について発表する場が少ない事から このLT会を企画しました。 もちろん、LLMについての発表も大歓迎なので、言葉通り「生成AI」について関係している内容であれば、どのようなことでも発表してよい場を目指しています。
  • ComfyUI-N-Nodes
    [. https://github.com/Nuked88/ComfyUI-N-Nodes][Nuked88]/ComfyUI-N-Nodes動画をロードしてフレームを抽出するノード[AnimateDIff]用[GPTQ]モデルを利用してプロンプトを生成する[ComfyUIカスタムノード]
  • MagicEdit
  • AnimateDiffのプロンプトを切り替える
    > [Asaki(@Morning_wood17) https://twitter.com/Morning_wood17/status/1694468556547645871]> AIアニメーション Text2Video(文章のみから生成)> AnimateDiff prompt travel で適用するプロンプトをフレームの途中で変更して動画の内容をコントロール> なんかローカルで環境構築したら生成速度が3倍くらいになって比較的長めの動画も一回で生成できるようになった #AnimateDiff #aianimation
  • mm_sd_v15
  • ComfyUIでAnimateDiff × prompt travel
  • mm_sd_v15_v2
  • 🦊prompt travel
  • AnimateDiff-Lightning
    [https://huggingface.co/ByteDance/AnimateDiff-Lightning/resolve/main/animatediff_lightning_samples_t2v.mp4][. https://arxiv.org/abs/2403.12706][AnimateDiff-Lightning: Cross-Model Diffusion Distillation]
  • 「春春秋秋」
  • v3_sd15_mm
  • 🦊SparseCtrl
  • MotionLoRA
  • MotionLoRAモデル
    [MotionLoRA]、もしくは[MotionDirector]で作られたMotionLoRAモデル[. https://huggingface.co/guoyww/animatediff/tree/cd71ae134a27ec6008b968d6419952b0c0494cf2]guoyww/animatediff[. https://huggingface.co/Nebsh/MotionLoraNebCollection/tree/main]Nebsh/MotionLoraNebCollection
  • カメラワーク
  • ReCamMaster
  • text2video
  • 🦊Wan2.1 画像生成
  • Wan2.1
  • Phantom
  • SynCamMaster
  • スパゲッティを食べるウィル・スミス
  • AIカテゴリ
    from [💬雑談#63f0c6365f1e0d00008c017b]table:画像/ image videotext [text2image] [text2video]image [image2image] [image2video]
  • HunyuanVideo-I2V
    [. https://github.com/Tencent/HunyuanVideo-I2V]Tencent/HunyuanVideo-I2V[. https://huggingface.co/tencent/HunyuanVideo-I2V]tencent/HunyuanVideo-I2V[image2video]に対応した[HunyuanVideo][text2video]→[HunyuanVideo]
  • Veo 2
    https://deepmind.google/technologies/veo/veo-2/[. https://ai.google.dev/gemini-api/docs/video?hl=ja#prompt-guide]プロンプトガイド> [Agrim Gupta(@agrimgupta92) https://twitter.com/agrimgupta92/status/1868745017571131582]
  • 雑談 2025年3月
    from [💬雑談]2025/3/31ようやくPCと戯れる生活に戻ってきたので、溜まりに溜まった分頑張って読むぞぉ[nomadoor.icon]2025/03/30[. https://zenn.dev/discus0434/articles/gemini-2-0-mm]GPT-4oとGemini-2.0の画像生成能力はいかにして作られているのか
  • Gen-3
  • Step-Video-T2V
    [. https://github.com/stepfun-ai/Step-Video-T2V][stepfun-ai]/[Step-Video-T2V][. https://huggingface.co/stepfun-ai/stepvideo-t2v][stepfun-ai]/[stepvideo-t2v][. https://huggingface.co/stepfun-ai/stepvideo-t2v-turbo]stepfun-ai/[stepvideo-t2v-turbo]
  • Goku
    [. https://saiyan-world.github.io/goku/][Goku][. https://arxiv.org/abs/2502.04896][Goku: Flow Based Video Generative Foundation Models][. https://github.com/Saiyan-World/goku][Saiyan-World]/[goku]> [AK(@_akhaliq) https://twitter.com/_akhaliq/status/1888811509565808924]
  • AIdeaLab VideoJP
    [. https://note.com/aidealab/n/n677018ea1953]商用利用できる透明性の高い日本語動画生成AI、AIdeaLab VideoJPを無償公開|AIdeaLab> [あるふ(@alfredplpl) https://twitter.com/alfredplpl/status/1879079282103980153]> この度、プロジェクトGENIACの支援を受けて、動画生成AI「AIdeaLab VideoJP」を開発・公開しました!無料デモ版は、ご家庭のPCやスマホで動くよう設計されています。ぜひお試しください!
  • Sora
    https://openai.com/sora[. https://openai.com/research/video-generation-models-as-world-simulators]Video generation models as world simulators[. https://arxiv.org/abs/2402.17177][Sora: A Review on Background, Technology, Limitations, and Opportunities of Large Vision Models]
  • Meta Movie Gen
    https://x.com/AIatMeta/status/1842188252541043075動画生成オーディオ生成既存の動画を編集して生成[meta]
  • Vchitect-2.0
  • Vidu
    [. https://www.shengshu-ai.com/vidu]Project[. https://arxiv.org/abs/2405.04233][Vidu: a Highly Consistent, Dynamic and Skilled Text-to-Video Generator with Diffusion Models]1080pの最大16秒の動画を生成できる[動画生成AI]
  • Deforum
    [. https://github.com/deforum-art]>We are a community of AI image synthesis developers, enthusiasts, and artists.>We have created a notebook using Stable Diffusion and continue to improve its functionality daily. It's free, it's amazing, and you can use it to make cool stuff with AI.
  • MotionDirector
  • Stable Video Diffusion
  • LUMIERE
  • InstructVideo
    [. https://arxiv.org/abs/2312.12490][InstructVideo: Instructing Video Diffusion Models with Human Feedback]人間のフィードバックで[text2video]モデルをファインチューニングする0からの生成をファインチューニングするには計算コストがかかりすぎるため、生成した動画にノイズを加えたものをスタートに"編集"するというアプローチを取ることで計算コストを下げる
  • New Links
  • AnimateDiff: Animate Your Personalized Text-to-Image Diffusion Models without Specific Tuning
  • mm_sd_v14
  • mm_sdxl_v10_beta
  • v3_sd15_adapter
  • Created by ノマ扉ノマ扉
  • Updated by 荻風荻風
  • with 沃波もとそ沃波もとそ
  • Views: 1770
  • Page rank: 39.79
  • Copy link
  • Copy readable link
  • Start presentation
  • Hide dots
AnimateDiff
https://animatediff.github.io/animations/model_01/02.mp4https://animatediff.github.io/animations/model_05/03.mp4
https://animatediff.github.io/Project
https://arxiv.org/abs/2307.04725AnimateDiff: Animate Your Personalized Text-to-Image Diffusion Models without Specific Tuning
https://github.com/guoyww/animatediff/guoyww/AnimateDiff
https://colab.research.google.com/github/Linaqruf/sd-notebook-collection/blob/main/AnimateDiff.ipynb
https://gyazo.com/f251d905e815b9759977b3fa8b834004
text2imageモデルにmotion modeling moduleを組み込む
Motion Module
公式https://huggingface.co/guoyww/animatediff/tree/main
mm_sd_v14
mm_sd_v15
mm_sd_v15_v2
mm_sdxl_v10_beta
v3_sd15_adapter
v3_sd15_mm
AD Stabilized Motion
TemporalDiff
MotionLoRA
v2_lora_ZoomIn.ckpt他https://huggingface.co/guoyww/animatediff/tree/main
カメラワークができるように
https://ascii.jp/elem/000/004/155/4155433/
一般向け解説記事
いくつかのテクニック
https://www.reddit.com/r/StableDiffusion/comments/171l0ip/9_animatediff_comfy_workflows_that_will_steal/9 Animatediff Comfy workflows that will steal your weekend (but in return may give you immense creative satisfaction)
text2video