🦊HiDream-I1
🏠 | 🦊雑に学ぶComfyUI
👈 | 🦊Stable Diffusion 3.5
👉 |
参考
https://docs.comfy.org/tutorials/advanced/hidreamComfyUI公式Doc
テキストエンコーダ(共通)
$ path\to\ComfyUI\models\text_encoders
https://huggingface.co/Comfy-Org/HiDream-I1_ComfyUI/blob/main/split_files/text_encoders/clip_g_hidream.safetensorsclip_g_hidream.safetensors
https://huggingface.co/Comfy-Org/HiDream-I1_ComfyUI/blob/main/split_files/text_encoders/clip_l_hidream.safetensorsclip_l_hidream.safetensors
https://huggingface.co/Comfy-Org/HiDream-I1_ComfyUI/blob/main/split_files/text_encoders/llama_3.1_8b_instruct_fp8_scaled.safetensorsllama_3.1_8b_instruct_fp8_scaled.safetensors
基本的にはただのLlama 3.1(一切無加工)なので量子化モデルが必要な場合既存のものを使うと良い
ただし、かなりオリジナルのllamaに依存する作りのようでllama3.1から追加学習したモデルでは動かない(厳密には動くがただのノイズが出来る)ようだ。morisoba65536.icon
https://huggingface.co/Comfy-Org/HiDream-I1_ComfyUI/blob/main/split_files/text_encoders/t5xxl_fp8_e4m3fn_scaled.safetensorst5xxl_fp8_e4m3fn_scaled.safetensors(Fluxと同じ)
VAE
$ patth\to\ComfyUI\models\vae
https://huggingface.co/Comfy-Org/HiDream-I1_ComfyUI/blob/main/split_files/vae/ae.safetensorsae.safetensors(Fluxと同じ)
モデル
$ path\to\ComfyUI\models\diffusion_models
HiDream-I1-Full
モデル
https://huggingface.co/Comfy-Org/HiDream-I1_ComfyUI/blob/main/split_files/diffusion_models/hidream_e1_full_bf16.safetensorshidream_e1_full_bf16.safetensors
https://huggingface.co/Comfy-Org/HiDream-I1_ComfyUI/blob/main/split_files/diffusion_models/hidream_i1_full_fp16.safetensorshidream_i1_full_fp16.safetensors
https://huggingface.co/Comfy-Org/HiDream-I1_ComfyUI/blob/main/split_files/diffusion_models/hidream_i1_full_fp8.safetensorshidream_i1_full_fp8.safetensors
動かせない()
HiDream-I1-Dev
モデル
https://huggingface.co/Comfy-Org/HiDream-I1_ComfyUI/blob/main/split_files/diffusion_models/hidream_i1_dev_bf16.safetensorshidream_i1_dev_bf16.safetensors
https://huggingface.co/Comfy-Org/HiDream-I1_ComfyUI/blob/main/split_files/diffusion_models/hidream_i1_dev_fp8.safetensorshidream_i1_dev_fp8.safetensors
https://gyazo.com/caadef041cf1cf8b08644908c6238e1f
HiDream-I1-Dev.json
蒸留モデルなのでCFG 1
公式推奨値はサンプラー LCM / 28steps
↑は Euler / 20steps
HiDream-I1-Fast
モデル
https://huggingface.co/Comfy-Org/HiDream-I1_ComfyUI/blob/main/split_files/diffusion_models/hidream_i1_fast_bf16.safetensorshidream_i1_fast_bf16.safetensors
https://huggingface.co/Comfy-Org/HiDream-I1_ComfyUI/blob/main/split_files/diffusion_models/hidream_i1_fast_fp8.safetensorshidream_i1_fast_fp8.safetensors
https://gyazo.com/560f2d15731c1eb130ea50390f05a741
HiDream-I1-Fast.json
公式推奨値はサンプラー LCM / 16steps
HiDream-E1 (GGUF)
モデル
https://huggingface.co/ND911/HiDream_e1_full_bf16-ggufs/tree/mainND911/HiDream_e1_full_bf16-ggufs
https://gyazo.com/642e1b22330788f3efac900635b9778b
HiDream-E1_gguf.json
基本的にはclipには新規追加された🦊QuadrupleCLIPLoaderを使うが、描画対象が単一なら単独のclipLoaderでllama3.1だけ読み込んでも動く模様。
🦊DualCLIPLoaderは動くが🦊TripleCLIPLoaderは動かない、謎。
割と多くのベンチマークの結果単独の対象を描写する際にはllama3.1だけ読み込めば良いことが分かっている。
…が、複数の人物の描写、特に同性の人物複数の衣装違い等、共通項の多い対象を2人以上指定すると何故かllamaのみだとSDXLのように要素が区別されず混ざってしまう。clip4種をフルに使うと混ざらなくなる、謎。morisoba65536.icon
llamaとclip_gのみで混ざらずに描画できた、T5とclip_lは要らないかもしれないmorisoba65536.icon
https://www.reddit.com/r/StableDiffusion/comments/1k3iusb/psa_you_are_all_using_the_wrong_settings_for/ユーザーベースの報告では公式設定に習ってLCMを使うよりEulerのほうが良い結果になる?という報告がmorisoba65536.icon
https://www.reddit.com/r/StableDiffusion/comments/1k767ef/comment/mp00vlh/?utm_source=share&utm_medium=web3x&utm_name=web3xcss&utm_term=1&utm_content=share_button最近作られたDistanceSamplerと併用するとFullを7stepほどで推論できるようだ(ただこのサンプラーは重ためなので7stepと言ってもそれなりに時間はかかる)morisoba65536.icon
Distance最近お気に入り、なんでかわからないけれど使ってて安心感があるnomadoor.icon
Distanceの項目に書いたけど、🦊SamplerCustomノードとの組み合わせで最初と最後にDistanceを挟むようにすると速度と画質の両立がかなりしやすくかなりお気に入りな組み合わせ(現在掘り下げてる)morisoba65536.icon