About Cosense
Help
Log in
work4ai
A
n
i
m
a
t
e
D
i
f
f
h
t
t
p
s
:
/
/
a
n
i
m
a
t
e
d
i
f
f
.
g
i
t
h
u
b
.
i
o
/
P
r
o
j
e
c
t
h
t
t
p
s
:
/
/
a
r
x
i
v
.
o
r
g
/
a
b
s
/
2
3
0
7
.
0
4
7
2
5
A
n
i
m
a
t
e
D
i
f
f
:
A
n
i
m
a
t
e
Y
o
u
r
P
e
r
s
o
n
a
l
i
z
e
d
T
e
x
t
-
t
o
-
I
m
a
g
e
D
i
f
f
u
s
i
o
n
M
o
d
e
l
s
w
i
t
h
o
u
t
S
p
e
c
i
f
i
c
T
u
n
i
n
g
h
t
t
p
s
:
/
/
g
i
t
h
u
b
.
c
o
m
/
g
u
o
y
w
w
/
a
n
i
m
a
t
e
d
i
f
f
/
g
u
o
y
w
w
/
A
n
i
m
a
t
e
D
i
f
f
h
t
t
p
s
:
/
/
c
o
l
a
b
.
r
e
s
e
a
r
c
h
.
g
o
o
g
l
e
.
c
o
m
/
g
i
t
h
u
b
/
L
i
n
a
q
r
u
f
/
s
d
-
n
o
t
e
b
o
o
k
-
c
o
l
l
e
c
t
i
o
n
/
b
l
o
b
/
m
a
i
n
/
A
n
i
m
a
t
e
D
i
f
f
.
i
p
y
n
b
t
e
x
t
2
i
m
a
g
e
モ
デ
ル
に
m
o
t
i
o
n
m
o
d
e
l
i
n
g
m
o
d
u
l
e
を
組
み
込
む
M
o
t
i
o
n
M
o
d
u
l
e
公
式
h
t
t
p
s
:
/
/
h
u
g
g
i
n
g
f
a
c
e
.
c
o
/
g
u
o
y
w
w
/
a
n
i
m
a
t
e
d
i
f
f
/
t
r
e
e
/
m
a
i
n
m
m
_
s
d
_
v
1
4
m
m
_
s
d
_
v
1
5
m
m
_
s
d
_
v
1
5
_
v
2
m
m
_
s
d
x
l
_
v
1
0
_
b
e
t
a
v
3
_
s
d
1
5
_
a
d
a
p
t
e
r
v
3
_
s
d
1
5
_
m
m
A
D
S
t
a
b
i
l
i
z
e
d
M
o
t
i
o
n
T
e
m
p
o
r
a
l
D
i
f
f
M
o
t
i
o
n
L
o
R
A
v
2
_
l
o
r
a
_
Z
o
o
m
I
n
.
c
k
p
t
他
h
t
t
p
s
:
/
/
h
u
g
g
i
n
g
f
a
c
e
.
c
o
/
g
u
o
y
w
w
/
a
n
i
m
a
t
e
d
i
f
f
/
t
r
e
e
/
m
a
i
n
カ
メ
ラ
ワ
ー
ク
が
で
き
る
よ
う
に
h
t
t
p
s
:
/
/
a
s
c
i
i
.
j
p
/
e
l
e
m
/
0
0
0
/
0
0
4
/
1
5
5
/
4
1
5
5
4
3
3
/
一
般
向
け
解
説
記
事
い
く
つ
か
の
テ
ク
ニ
ッ
ク
h
t
t
p
s
:
/
/
w
w
w
.
r
e
d
d
i
t
.
c
o
m
/
r
/
S
t
a
b
l
e
D
i
f
f
u
s
i
o
n
/
c
o
m
m
e
n
t
s
/
1
7
1
l
0
i
p
/
9
_
a
n
i
m
a
t
e
d
i
f
f
_
c
o
m
f
y
_
w
o
r
k
f
l
o
w
s
_
t
h
a
t
_
w
i
l
l
_
s
t
e
a
l
/
9
A
n
i
m
a
t
e
d
i
f
f
C
o
m
f
y
w
o
r
k
f
l
o
w
s
t
h
a
t
w
i
l
l
s
t
e
a
l
y
o
u
r
w
e
e
k
e
n
d
(
b
u
t
i
n
r
e
t
u
r
n
m
a
y
g
i
v
e
y
o
u
i
m
m
e
n
s
e
c
r
e
a
t
i
v
e
s
a
t
i
s
f
a
c
t
i
o
n
)
t
e
x
t
2
v
i
d
e
o
Related
Sort by
Related
Modified
Created
Last visited
Most linked
Page rank
Title
Links
TemporalDiff
[Animatediff]の[Motion Module]>TemporalDiffは、より高解像度のデータセット(512x512)上でオリジナルのAnimateDiffの重みを微調整したものである。[. https://huggingface.co/CiaraRowles/TemporalDiff/tree/main]CiaraRowles/TemporalDiff[temporaldiff-v1-animatediff]
AD Stabilized Motion
[Animatediff]の[Motion Module][. https://huggingface.co/manshoety/AD_Stabilized_Motion]manshoety/AD_Stabilized_Motion[mm-Stabilized_mid][mm-Stabilized_high][. https://twitter.com/toyxyz3/status/1698758677996748944]toyxyz
text2video
[Awesome-Video-Diffusion]:[. https://github.com/showlab/Awesome-Video-Diffusion]Videoに関する技術をかき集めたページ
🦊AnimateDiff
「Emoquin - Switch」
AnimateDiff-MotionDirector
半年後にAIはいったいどうなっているのか 2023年上半期
[💬雑談]この半年でLLM[ChatGPT]画像生成
【AnimateDiff】キャラと背景のアニメーションを別に生成して合成してimage2image
AI タイムライン
📄 : テキスト / 🖼️ : 画像 / ♫ : 音楽・音声 / 🎥 : 動画 / 🐵 : 3D / 🤖 : エージェント / 🌏️ : 世界モデル / ⌚ : 流行table:2025IN OUT Topic2025/8/9 📄🖼️ 📄 [GPT-5]2025/8/6 📄 📄 [gpt-oss]
雑談 2023年10月
🦊CogVideoX
Animate Anyone
半年後にAIはいったいどうなっているのか 2023年下半期
前 [半年後にAIはいったいどうなっているのか 2023年上半期]次 [半年後にAIはいったいどうなっているのか 2024年上半期]7月が終わってしまう前になにか書こう[nomadoor.icon]ワークフローの複雑化今の画像生成AI、全然"text2image"じゃなくね?と誰かがredditで言っていた気がする
AniPortrait
MagicDance
ComfyUI-AnimateDiff-Evolved
[. https://github.com/Kosinkadink/ComfyUI-AnimateDiff/][Kosinkadink]/ComfyUI-AnimateDiffforked from: [. https://github.com/ArtVentureX/comfyui-animatediff][ArtVentureX]/comfyui-animatediff[AnimateDiff]を使うための[ComfyUIカスタムノード]
MagicAnimate
[. https://github.com/magic-research/magic-animate][. https://huggingface.co/spaces/zcxu-eric/magicanimate][. https://arxiv.org/abs/2311.16498][MagicAnimate: Temporally Consistent Human Image Animation using Diffusion Model]
SparseCtrl
MotionCtrl
LongAnimateDiff
[. https://github.com/Lightricks/LongAnimateDiff?tab=readme-ov-file][Lightricks]/LongAnimateDiff[. https://huggingface.co/Lightricks/LongAnimateDiff]Lightricks/LongAnimateDifflt_long_mm_16_64_frames.ckpt
FreeInit
AnimateDiff × prompt travelで一貫性のある表情差分を作る
【AnimateDiff】image2video with inpainting
AnimateDiffでアニメ作成
> [Baku(@bk_sakurai) https://twitter.com/bk_sakurai/status/1718240073999843761]> *[AnimateDiff]で「アニメ」がつくれるか> [. https://note.com/bakushu/n/n976466e5b0e4] #comfyui #animatediff #aiart> [https://video.twimg.com/tweet_video/F9hqBlpbAAAdj4u.mp4]
AnimateDiff prompt travel
[. https://github.com/s9roll7/animatediff-cli-prompt-travel][s9roll7]/animatediff-cli-prompt-travel[region prompt]に対応[AnimateDiff]
【第1回】生成AIなんでもLT会
[. https://genai-nandemo-lt.connpass.com/event/291568/]> 本LT会は、生成AIを対象としたLT会です。 最近大流行中の生成AIですが、発表の場がLLMに偏っており、動画や画像、音声生成について発表する場が少ない事から このLT会を企画しました。 もちろん、LLMについての発表も大歓迎なので、言葉通り「生成AI」について関係している内容であれば、どのようなことでも発表してよい場を目指しています。
ComfyUI-N-Nodes
[. https://github.com/Nuked88/ComfyUI-N-Nodes][Nuked88]/ComfyUI-N-Nodes動画をロードしてフレームを抽出するノード[AnimateDIff]用[GPTQ]モデルを利用してプロンプトを生成する[ComfyUIカスタムノード]
MagicEdit
AnimateDiffのプロンプトを切り替える
> [Asaki(@Morning_wood17) https://twitter.com/Morning_wood17/status/1694468556547645871]> AIアニメーション Text2Video(文章のみから生成)> AnimateDiff prompt travel で適用するプロンプトをフレームの途中で変更して動画の内容をコントロール> なんかローカルで環境構築したら生成速度が3倍くらいになって比較的長めの動画も一回で生成できるようになった #AnimateDiff #aianimation
mm_sd_v15
ComfyUIでAnimateDiff × prompt travel
mm_sd_v15_v2
🦊prompt travel
AnimateDiff-Lightning
[https://huggingface.co/ByteDance/AnimateDiff-Lightning/resolve/main/animatediff_lightning_samples_t2v.mp4][. https://arxiv.org/abs/2403.12706][AnimateDiff-Lightning: Cross-Model Diffusion Distillation]
「春春秋秋」
v3_sd15_mm
🦊SparseCtrl
MotionLoRA
MotionLoRAモデル
[MotionLoRA]、もしくは[MotionDirector]で作られたMotionLoRAモデル[. https://huggingface.co/guoyww/animatediff/tree/cd71ae134a27ec6008b968d6419952b0c0494cf2]guoyww/animatediff[. https://huggingface.co/Nebsh/MotionLoraNebCollection/tree/main]Nebsh/MotionLoraNebCollection
カメラワーク
ReCamMaster
text2video
🦊Wan2.1 画像生成
Wan2.1
Phantom
SynCamMaster
スパゲッティを食べるウィル・スミス
AIカテゴリ
from [💬雑談#63f0c6365f1e0d00008c017b]table:画像/ image videotext [text2image] [text2video]image [image2image] [image2video]
HunyuanVideo-I2V
[. https://github.com/Tencent/HunyuanVideo-I2V]Tencent/HunyuanVideo-I2V[. https://huggingface.co/tencent/HunyuanVideo-I2V]tencent/HunyuanVideo-I2V[image2video]に対応した[HunyuanVideo][text2video]→[HunyuanVideo]
Veo 2
https://deepmind.google/technologies/veo/veo-2/[. https://ai.google.dev/gemini-api/docs/video?hl=ja#prompt-guide]プロンプトガイド> [Agrim Gupta(@agrimgupta92) https://twitter.com/agrimgupta92/status/1868745017571131582]
雑談 2025年3月
from [💬雑談]2025/3/31ようやくPCと戯れる生活に戻ってきたので、溜まりに溜まった分頑張って読むぞぉ[nomadoor.icon]2025/03/30[. https://zenn.dev/discus0434/articles/gemini-2-0-mm]GPT-4oとGemini-2.0の画像生成能力はいかにして作られているのか
Gen-3
Step-Video-T2V
[. https://github.com/stepfun-ai/Step-Video-T2V][stepfun-ai]/[Step-Video-T2V][. https://huggingface.co/stepfun-ai/stepvideo-t2v][stepfun-ai]/[stepvideo-t2v][. https://huggingface.co/stepfun-ai/stepvideo-t2v-turbo]stepfun-ai/[stepvideo-t2v-turbo]
Goku
[. https://saiyan-world.github.io/goku/][Goku][. https://arxiv.org/abs/2502.04896][Goku: Flow Based Video Generative Foundation Models][. https://github.com/Saiyan-World/goku][Saiyan-World]/[goku]> [AK(@_akhaliq) https://twitter.com/_akhaliq/status/1888811509565808924]
AIdeaLab VideoJP
[. https://note.com/aidealab/n/n677018ea1953]商用利用できる透明性の高い日本語動画生成AI、AIdeaLab VideoJPを無償公開|AIdeaLab> [あるふ(@alfredplpl) https://twitter.com/alfredplpl/status/1879079282103980153]> この度、プロジェクトGENIACの支援を受けて、動画生成AI「AIdeaLab VideoJP」を開発・公開しました!無料デモ版は、ご家庭のPCやスマホで動くよう設計されています。ぜひお試しください!
Sora
https://openai.com/sora[. https://openai.com/research/video-generation-models-as-world-simulators]Video generation models as world simulators[. https://arxiv.org/abs/2402.17177][Sora: A Review on Background, Technology, Limitations, and Opportunities of Large Vision Models]
Meta Movie Gen
https://x.com/AIatMeta/status/1842188252541043075動画生成オーディオ生成既存の動画を編集して生成[meta]
Vchitect-2.0
Vidu
[. https://www.shengshu-ai.com/vidu]Project[. https://arxiv.org/abs/2405.04233][Vidu: a Highly Consistent, Dynamic and Skilled Text-to-Video Generator with Diffusion Models]1080pの最大16秒の動画を生成できる[動画生成AI]
Deforum
[. https://github.com/deforum-art]>We are a community of AI image synthesis developers, enthusiasts, and artists.>We have created a notebook using Stable Diffusion and continue to improve its functionality daily. It's free, it's amazing, and you can use it to make cool stuff with AI.
MotionDirector
Stable Video Diffusion
LUMIERE
InstructVideo
[. https://arxiv.org/abs/2312.12490][InstructVideo: Instructing Video Diffusion Models with Human Feedback]人間のフィードバックで[text2video]モデルをファインチューニングする0からの生成をファインチューニングするには計算コストがかかりすぎるため、生成した動画にノイズを加えたものをスタートに"編集"するというアプローチを取ることで計算コストを下げる
New Links
AnimateDiff: Animate Your Personalized Text-to-Image Diffusion Models without Specific Tuning
mm_sd_v14
mm_sdxl_v10_beta
v3_sd15_adapter
Created
2 years ago
by
ノマ扉
Updated
2 years ago
by
荻風
with
沃波もとそ
Views: 1770
Page rank: 39.79
Copy link
Copy readable link
Start presentation
Hide dots
AnimateDiff
https://animatediff.github.io/animations/model_01/02.mp4
https://animatediff.github.io/animations/model_05/03.mp4
https://animatediff.github.io/
Project
https://arxiv.org/abs/2307.04725
AnimateDiff: Animate Your Personalized Text-to-Image Diffusion Models without Specific Tuning
https://github.com/guoyww/animatediff/
guoyww/AnimateDiff
https://colab.research.google.com/github/Linaqruf/sd-notebook-collection/blob/main/AnimateDiff.ipynb
https://gyazo.com/f251d905e815b9759977b3fa8b834004
text2imageモデルに
motion modeling module
を組み込む
Motion Module
公式
https://huggingface.co/guoyww/animatediff/tree/main
mm_sd_v14
mm_sd_v15
mm_sd_v15_v2
mm_sdxl_v10_beta
v3_sd15_adapter
v3_sd15_mm
AD Stabilized Motion
TemporalDiff
MotionLoRA
v2_lora_ZoomIn.ckpt他
https://huggingface.co/guoyww/animatediff/tree/main
カメラワーク
ができるように
https://ascii.jp/elem/000/004/155/4155433/
一般向け解説記事
いくつかのテクニック
https://www.reddit.com/r/StableDiffusion/comments/171l0ip/9_animatediff_comfy_workflows_that_will_steal/
9 Animatediff Comfy workflows that will steal your weekend (but in return may give you immense creative satisfaction)
text2video