🦊Flux
👉 |
SDXLとの違いとしてUNetがtransformerに置き換えられていることと、プロンプトを理解する部分にT5というLLMが使われていることがありますが、ありがたいことにComfyUIIではあまり気にしなくても使えます
ややこしい方のやり方
モデルのダウンロード
CLIPとT5
$ path\to\ComfyUI_windows_portable2\ComfyUI\models\clip
FLUX
devのほうが高性能ですが、その分マシンパワーが必要です
$ path\to\ComfyUI_windows_portable2\ComfyUI\models\unet
https://gyazo.com/8f511f52b7493ce85021ab68128a762d
Flux.1-dev/schnellはCFGを蒸留したため1.0に固定、つまりNegaitve Promptがありません
ただし、モデルがどの程度条件に従うかのパラメータは欲しいので、ComfyUIではFluxGuidanceというパラメータで似たようなことができます Negative Promptに関しては、FluxはT5というLLMでプロンプトの理解力を上げているので、書かせたくないものは"not 〇〇"という風に書かせれば良いということになっています
が、ChatGPT相手ですら否定形のプロンプトはやめろとOpenAIが言っている(出典忘れた)ので、多分あまり意味ないです
簡易版のやり方
Stable Diffusionと同じ様にweight/CLIP/vaeをcheckpointにまとめて、KSamplerを使ったシンプルなworkflowで推論できるようにしたのがこちら
モデルのダウンロード
https://gyazo.com/74b6db8807c043db13d112428de4e13d
GGUF
LLMで使われていた技術ですが、これをFluxに応用してSDXL-Turboのように高速・計量で画像生成できるようにします
LoRA
https://gyazo.com/9a1c13b03c5754c2ee387d3e70f837f7
ControlNet
https://gyazo.com/fcc766d3183371e81f9dc3713dbc729a
重すぎるのでGGUFと併用
inpainting/outpainting (ControlNet Inpaint)
ControlNetモデル
https://gyazo.com/0f5054b2bc3960a2a8ae57f81c74fa92
🟨BiRefNetで作ったマスクを少し拡張してControlNetとSet latent Noise Maskノードに接続 ControlNetが異常に強く効くのでend_percentを0.1にしているけれど、これが正しい動作かは自信ないnomadoor.icon