ComfyUIで遊ぶ
モデルを入れる
とりあえず動いた
https://gyazo.com/2ec690398186596d956009f194c58d3b
ノードの追加が改装構造でincremental searchできないのがかなりつらい
ダブルクリックでできた
i2i
別途VAEないとだめなの?
VAEないとlatent spaceにおとせないからVAE自体は必要
No need to use any refiner model. Use VAE of the model itself or the sdxl-vae. つまりこれでいいってことだ
https://gyazo.com/9caae4e288b7705f4f7d39c187a49381
CLIPTextEncode も SDXL に対応していますが、CLIPTextEncodeSDXL では更に細かい指定が可能です。
SDXL base model では、学習元画像のサイズ (original size) や、学習バッチ内の (resize & crop 済み) 画像サイズ (target size あるいは bucket size)、target size に揃えるために行なった crop 量も学習の入力になっていて、推論時のコンディショニングで指定することができます。
TODO
生成した画像にデフォルトでworkflowが入るらしいのを試す
D&Dしたらworkflowを再現できる
1.ComfyUIを最新にアップデート
3.同じくHFのtext_encoders/から 「clip_g.safetensors, clip_l.sa..., t5xxl_fp8_e4m3fn.sa...」をmodels/clipにダウンロード
全体入れるの試す
https://www.youtube.com/watch?v=LNOlk8oz1nY
チュートリアルシリーズ
https://www.youtube.com/watch?v=_C7kR2TFIX0
機能解説