🦊HiDream-I1
👉 |
参考
テキストエンコーダ(共通)
$ path\to\ComfyUI\models\text_encoders
基本的にはただのLlama 3.1(一切無加工)なので量子化モデルが必要な場合既存のものを使うと良い ただし、かなりオリジナルのllamaに依存する作りのようでllama3.1から追加学習したモデルでは動かない(厳密には動くがただのノイズが出来る)ようだ。morisoba65536.icon
VAE
$ patth\to\ComfyUI\models\vae
モデル
$ path\to\ComfyUI\models\diffusion_models
モデル
動かせない()
モデル
https://gyazo.com/caadef041cf1cf8b08644908c6238e1f
蒸留モデルなのでCFG 1
公式推奨値はサンプラー LCM / 28steps
↑は Euler / 20steps
モデル
https://gyazo.com/560f2d15731c1eb130ea50390f05a741
公式推奨値はサンプラー LCM / 16steps
モデル
https://gyazo.com/642e1b22330788f3efac900635b9778b
割と多くのベンチマークの結果単独の対象を描写する際にはllama3.1だけ読み込めば良いことが分かっている。
…が、複数の人物の描写、特に同性の人物複数の衣装違い等、共通項の多い対象を2人以上指定すると何故かllamaのみだとSDXLのように要素が区別されず混ざってしまう。clip4種をフルに使うと混ざらなくなる、謎。morisoba65536.icon llamaとclip_gのみで混ざらずに描画できた、T5とclip_lは要らないかもしれないmorisoba65536.icon
Distance最近お気に入り、なんでかわからないけれど使ってて安心感があるnomadoor.icon
Distanceの項目に書いたけど、🦊SamplerCustomノードとの組み合わせで最初と最後にDistanceを挟むようにすると速度と画質の両立がかなりしやすくかなりお気に入りな組み合わせ(現在掘り下げてる)morisoba65536.icon