Comfyに使うComfyUI草案
code:v3.md
# ナビゲーション設計 v3
* 📂はじめてのComfyUI
* このサイトの使い方
* とりあえず動かしてみる
* ComfyUIとは?
* 推奨スペック
* セットアップ
* Comfy Cloud
* 起動して生成
* 必要なPC知識
* パス
* ターミナル
* Python
* git
* ComfyUIの操作
* 実行・停止
* workflowの保存・読み込み
* キャンバスの操作
* ノード
* メディア
* Subgraph
* カスタマイズ
* 設定
* コマンドライン引数
* アップデート
* モデルのダウンロードと配置
* カスタムノード
* 📂データ / 画像ユーティリティ
* データ操作
* データ型
* 単純な計算
* テキスト操作
* Webカメラ入力
* 基本的な画像処理
* リサイズ・クロップ・パディング
* 色調補正・フィルタ効果
* マスクとアルファチャンネル
* マスク操作
* レイヤ合成・ブレンド
* 連続処理
* キュー
* リスト
* バッチ・動画
* コラム
* リーダブルノードのすすめ
* 無線でノードをつなぐ
* 📂AIの仕組みと出来ること
* 画像生成AIの仕組み
* 拡散モデル
* Conditioning
* サンプリング
* CFG
* Latent Diffusion ModelとVAE
* モデルアーキテクチャの違い
* 画像生成の応用技術
* アップスケール・画像修復
* ControlNet系
* 領域指定生成
* Subject転送
* FaceSwap
* ID転送
* 着せ替え
* スタイル転送
* 線画着色
* 指示ベースの画像編集
* 雑コラのリファイン
* 画像変換
* オブジェクト除去
* リライト / Delight
* 深度推定・ノーマルマップ生成
* 動画・音声生成
* 動画生成
* アップスケール・動画修復
* フレーム補間
* リップシンク
* talking head
* TTS
* ボイスクローン
* 音楽生成
* 指示ベースの音声編集
* video2audio
* 3D生成
* 3Dモデル生成
* マルチビュー生成
* コンピュータービジョン / VLM
* 物体検出
* マッティング
* セグメンテーション
* LLM / MLLMの活用
* プロンプト生成・編集
* キャプション生成
* 📂基本のworkflow
* 画像生成の基本 (SD1.5)
* text2image
* Textual Inversion
* LoRA
* image2image
* KSamplerAdvanced
* Hires.fix
* inpainting
* outpainting
* Differential Diffusion
* ControlNet
* ControlNetの種類
* 制御画像の作り方
* IP-Adapter
* 他の基盤モデル
* SDXL
* Illustrious
* Flux
* LoRA
* Flux.1 Tools
* ACE++
* Flux.1 Kontext
* Chroma
* AuraFlow
* Qwen-Image
* Qwen-Image基本
* Qwen-Image-Edit
* アップスケール・修正
* ESRGAN
* GFPGAN
* SUPIR
* Ultimate SD Upscale
* Detailer
* マスク生成
* BiRefNet
* YOLO
* Grounding DINO
* SAM
* 動画生成・処理
* Wan 2.1
* Wan 2.1基本
* Wan 2.1 VACE
* Wan 2.2
* LTX-Video
* FramePack
* FramePack基本
* 1フレーム推論
* Wan-Animate
* LivePortrait
* HunyuanVideo-Foley
* LLM / MLLM
* JoyCaption
* Florence2
* Qwen 3 VL
* その他
* ReActor
* システム・最適化
* モデルのマージ
* 高速化・軽量化
* 外部API
* nano-banana
* gemini-flash
* 📂FAQ / トラブルシューティング
* エラーが出た時にやること
* エラーコードの確認
* よくある質問
* 512px × 512pxで生成するのはなぜ?
* SD1.5のLoRA/ControlNetはSDXLで使えない?
* 8の倍数解像度しか生成できないのはなぜ?
* トラブルシューティング
* OOM / VRAM
* アーティファクト
* 生成画像で人や物体が分身している
* RuntimeError: channels mismatch
code:v2.md
# ナビゲーション設計ドラフト v2
* 📂はじめてのComfyUI
* とりあえず動かしてみる
* ComfyUIとは?
* セットアップ
* 起動して生成
* 必要なPC知識
* パス
* ターミナル
* Python
* git
* ComfyUIの操作
* 実行・停止
* workflowの保存・読み込み
* キャンバスの操作
* ノード
* メディア
* Subgraph
* カスタマイズ
- 設定
- コマンドライン引数
- アップデート
- モデルのダウンロードと配置
- カスタムノード
📂基本的なデータ処理
* データ処理
* データ型
* 単純な計算
* テキスト操作
* Webカメラ入力
* 基本的な画像処理
* リサイズ・クロップ・パディング
* 色調補正・フィルタ効果
* マスクとアルファチャンネル
* マスク操作
* レイヤ合成・ブレンド
* 連続処理
* キュー
* リスト
* バッチ・動画
* コラム
* リーダブルノードのすすめ
* 無線でノードをつなぐ
* 📂AIの仕組みと出来ること
* 画像生成AIの仕組み
* 拡散モデル
* サンプリング
* Conditioning
* CFG
* Latent Diffusion ModelとVAE
* モデルアーキテクチャの違い
* 画像生成の応用技術
* アップスケール・画像修復
* 雑コラのリファイン
* ControlNet系
* 領域指定生成
* Subject転送
* FaceSwap / ID転送
* 着せ替え
* スタイル転送
* 線画着色
* 指示ベースの画像編集
* 画像変換(Image-to-Image Translation)
* オブジェクト除去
* リライト
* Delight
* 深度推定・ノーマルマップ生成
* 動画・音声生成
* 動画生成
* アップスケール・動画修復
* フレーム補間
* リップシンク
* ボイスクローン
* 音楽生成
* 3D生成
* 3Dモデル生成
* マルチビュー生成
* VLM / LLM / MLLMの活用
* 物体検出
* セグメンテーション
* プロンプト生成・編集
* キャプション生成
* 📂workflow集
* 基本のworkflow (SD1.5)
* text2image
* Texual Inversion
* LoRA
* KSamplerAdvanced
* image2image
* Hires.fix
* inpainting
* outpainting
* Differential Diffusion
* ControlNet
* ControlNetの種類
* 制御画像の作り方
* IP-Adapter
- モデルのマージ
* 他の基盤モデル
* Stable difusion 1.5
* SDXL
* Flux
* Flux.1 Tools
* ACE++
* Flux.1 Kontext
* Chroma
* AuraFlow
* Qwen-Image
* Qwen-Image-Edit
* アップスケール・修正
* ESRGAN / GFPGAN
* SUPIR
* Detailer
* マスク生成
* マッティング
* 物体検出
* セグメンテーション
* 高速化・軽量化
* 蒸留モデル
* GGUF
* Tiled
* FlashAttention / SageAttention
動画
* Wan 2.1
* Wan2.1 VACE
* Wan 2.2
* LTX-Video
* FramePack
- FramePack 1フレーム推論
LLM / MLLM
* Joycaption
* Florence2
* Qwen 3 VL
API(クローズドモデル)
- nano-banana
- gemini-flash
* 📂FAQ / トラブルシューティング
- エラーが出るときにやること
- エラーコードの確認
- よくある質問
- 512px × 512pxで生成するのはなぜ?
- Stable Diffusion 1.5のLoRAやControlNetはSDXLでは使えない?
- 8の倍数の解像度しか生成できないのはなぜ?
- トラブルシューティング
* OOM / VRAM
* アーティファクト
- 生成した画像で人や物体が分身している
- RuntimeError: Given groups=1, weight of size 64, 3, 3, 3 , expected input 1, 4, 512, 512 to have 3 channels, but got 4 channels instead
code:md
# ナビゲーション設計ドラフト v1
* 📂はじめてのComfyUI
* とりあえず動かしてみる
* ComfyUIとは?
* セットアップ(ComfyUI Managerもここにしました)
* 起動して生成
* 必要なPC知識
* パス
* ターミナル
* Python
* git
* ComfyUIの操作
* 実行・停止
* workflowの保存・読み込み
* キャンバスの操作
* ノード
* メディア
* Subgraph
* カスタマイズ
- 設定
- コマンドライン引数
- アップデート
- モデルのダウンロードと配置
- カスタムノード
*📂基本的なデータ処理
* データ処理
* データ型
* 単純な計算
* テキスト操作
* Webカメラ入力
* 基本的な画像処理
* リサイズ・クロップ・パディング
* 色調補正・フィルタ効果
* マスクとアルファチャンネル
* マスク操作
* レイヤ合成・ブレンド
* 連続処理
* キュー
* リスト
* バッチ・動画
* コラム
* リーダブルノードのすすめ
* 無線でノードをつなぐ
* 📂生成AIの仕組みと出来ること
- 画像生成AIの仕組み
- 拡散モデル
- サンプリング
- conditioning
- CFG
- latent diffusion modelとVAE
- モデルアーキテクチャの違い
* 画像生成の応用技術
* アップスケール・画像修復
* オブジェクト除去
* リライト
* ControlNet系
* Subject転送
* FaceSwap / ID転送
* 着せ替え
* スタイル転送
* 線画着色
* 指示ベースの画像編集
* 動画・音声生成
* アップスケール・動画修復
* フレーム補間
* リップシンク
* ボイスクローン
* VLM / LLM / MLLMの活用
* 物体検出
* セグメンテーション
- プロンプト生成・編集
- キャプション生成
* 📂workflow集
💾画像
* Stable Diffusion 1.5
* text2image
* プロンプト
* Texual Inversion
* LoRA
* KSamplerAdvancedノード
* image2imag
* Hires.fix
* inpainting
* outpainting
* Differential Diffusion
* Detailer
* ControlNet
* ControlNetの種類
* 制御画像の作り方
* IP-Adapter
* SDXL
* Flux
* Flux.1 Tools
* ACE++
* Flux.1 Kontext
* Chroma
* AuraFlow
* Qwen-Image
* Qwen-Image-Edit
💾どうしようこれ
- UnSampler
- IC-light
- LDM
- モデルのマージ
- 高速化と軽量化
💾画像処理
* アップスケール
* ESRGAN / GFPGAN
* Ultimate SD upscale
* SUPIR
* マスク生成
* マッティング
* 物体検出
* セグメンテーション
💾動画
* Wan 2.1
* Wan2.1 VACE
* Wan 2.2
* LTX-Video
* FramePack
- FramePack 1フレーム推論
💾LLM / MLLM
* Joycaption
* Qwen 3 VL
💾API(クローズドモデル)
- モデルのマージ
* 📂FAQ / トラブルシューティング
- エラーが出るときにやること
- エラーコードの確認
- よくある質問
- 512px × 512pxで生成するのはなぜ?
- Stable Diffusion 1.5のLoRAやControlNetはSDXLでは使えない?
- 8の倍数の解像度しか生成できないのはなぜ?
- トラブルシューティング
* OOM / VRAM
* アーティファクト
- 生成した画像で人や物体が分身している
- RuntimeError: Given groups=1, weight of size 64, 3, 3, 3 , expected input 1, 4, 512, 512 to have 3 channels, but got 4 channels instead