🦊Flux
SDXLとの違いとしてUNetがtransformerに置き換えられていることと、プロンプトを理解する部分にT5というLLMが使われていることがありますが、ありがたいことにComfyUIではあまり気にしなくても使えます
Flux.1にはpro/dev/schnellの3つのバージョンがありますが
proは(API経由のみで)モデルは公開されていません
dev/schnellはproを蒸留したモデルです 蒸留したことによってCFGを使う必要がなくなり高速で生成できるようになっています
モデルのダウンロード
weight
CLIP/T5
VAE
code:models
📂ComfyUI/
└── 📂models/
├── 📂diffusion_models/
│ ├── flux1-dev-fp8.safetensors
│ └── flux1-schnell-fp8.safetensors
├── 📂clip/
│ ├── clip_l.safetensors
│ └── t5xxl_fp8_e4m3fn.safetensors
└── 📂vae/
└── ae.safetensors
KSamplerを使う方法 (基本推奨)
https://gyazo.com/2674b774362a1068fde86b3f621977a8
Flux.1-dev/schnellはCFGを蒸留したため1.0に固定、つまりNegaitve Promptがありません
ただし、モデルがどの程度条件に従うかのパラメータは欲しいので、ComfyUIではFluxGuidanceというパラメータで似たようなことができます KSampler Custom Advancedを使う
モデルのダウンロード
https://gyazo.com/8f511f52b7493ce85021ab68128a762d
Checkpointモデルと使うやり方
今更ですが、Checkpointというのはweight/CLIP/vaeが一つにパッケージングされたものです
シンプルにはなりますが、公式モデル以外はあまりCheckpointとして配布されていないのと、weightをGGUFに置き換える等の応用が効かないのであまり使いません
※Checkpointで読み込み、weightだけ使ってCLIP、VAEは別で読み込むなんてことも当然できるが単純に無駄になる
モデルのダウンロード
$ ComfyUI/models/checkpoints
https://gyazo.com/74b6db8807c043db13d112428de4e13d
GGUF
LLMで使われていた技術ですが、これをFluxに応用することでVRAMに使用量を減らすことができます
🪢カスタムノード
モデルのダウンロード
$ ComfyUI/models/unet
https://gyazo.com/e06b7199b8b260ce52cecf30b990c203
GGUFモデルを読み込む
LoRA
https://gyazo.com/9a1c13b03c5754c2ee387d3e70f837f7
ControlNet
https://gyazo.com/fcc766d3183371e81f9dc3713dbc729a
重すぎるのでGGUFと併用
inpainting/outpainting (ControlNet Inpaint)
ControlNetモデル
https://gyazo.com/0f5054b2bc3960a2a8ae57f81c74fa92
🟨BiRefNetで作ったマスクを少し拡張してControlNetとSet latent Noise Maskノードに接続 ControlNetが異常に強く効くのでend_percentを0.1にしているけれど、これが正しい動作かは自信ないnomadoor.icon