🦊コマンドライン引数
コマンドライン引数とは、プログラムを実行する際に指定する追加の情報やオプションのことです
Com fyUI内の設定よりもよりコアな部分を触ることができます
設定方法
ポータブル版ではrun_nvidia_gpu.batの中身を書き換えることで設定できます
code:run_nvidia_gpu.bat
.\python_embeded\python.exe -s ComfyUI\main.py --windows-standalone-build
pause
デフォルトはこうなっていますが、--reverseを追加してみましょう
code:run_nvidia_gpu.bat
.\python_embeded\python.exe -s ComfyUI\main.py --windows-standalone-build --reserve-vram 2.0
pause
単純に後ろに加えていきます
引数によってはパラメータを設定するものがありますが、その場合は--reserve-vram 2.0のように後ろに追加します
引数一覧
のCopilot.iconによる日本語訳
🔥比較的よく使いそうな引数
--listen
リッスンするIPアドレスを指定します(デフォルト:127.0.0.1)。引数なしで指定された場合、0.0.0.0にデフォルト設定されます(すべてのアドレスでリッスン)
--port
リッスンポートを設定します(デフォルト:8188)
--tls-keyfile
--tls-certfile
--enable-cors-header
オプションのオリジンまたはデフォルトの'*'でCORS(クロスオリジンリソースシェアリング)を有効にします
--max-upload-size
最大アップロードサイズをMB単位で設定します(デフォルト:100MB)
--extra-model-paths-config
1つ以上のextra_model_paths.yamlファイルを読み込みます
--output-directory 🔥
ComfyUIの出力ディレクトリを設定します
--temp-directory
ComfyUIの一時ディレクトリを設定します(デフォルトはComfyUIディレクトリ内)
--input-directory
ComfyUIの入力ディレクトリを設定します
--auto-launch
デフォルトのブラウザでComfyUIを自動的に起動します
--disable-auto-launch 🔥
ブラウザの自動起動を無効にします
--cuda-device
このインスタンスが使用するCUDAデバイスのIDを設定します
--cuda-malloc
cudaMallocAsyncを有効にします(torch 2.0以降でデフォルトで有効)
--disable-cuda-malloc
cudaMallocAsyncを無効にします
--force-fp32
fp32を強制します(これがGPUの動作を改善する場合は報告してください)
--force-fp16
fp16を強制します
--bf16-unet
UNETをbf16で実行します。これはテスト用にのみ使用してください
--fp16-unet
unetの重みをfp16で保存します
--fp8_e4m3fn-unet
unetの重みをfp8_e4m3fnで保存します
--fp8_e5m2-unet
unetの重みをfp8_e5m2で保存します
--fp16-vae
VAEをfp16で実行します。黒い画像が生成される可能性があります
--fp32-vae
VAEをフル精度のfp32で実行します
--bf16-vae
VAEをbf16で実行します
--cpu-vae
VAEをCPUで実行します
--fp8_e4m3fn-text-enc
テキストエンコーダの重みをfp8(e4m3fnバリアント)で保存します
--fp8_e5m2-text-enc
テキストエンコーダの重みをfp8(e5m2バリアント)で保存します
--fp16-text-enc
テキストエンコーダの重みをfp16で保存します
--fp32-text-enc
テキストエンコーダの重みをfp32で保存します
--force-channels-last
モデルの推論時にチャンネルラスト形式を強制します
--directml
torch-directmlを使用します
--disable-ipex-optimize
Intel GPUでモデルを読み込む際にipex.optimizeを無効にします
--preview-method
サンプラーノードのデフォルトプレビュー方法を設定します
--preview-size
サンプラーノードの最大プレビューサイズを設定します(デフォルト:512)
--cache-classic
古いスタイル(積極的な)キャッシュを使用します
--cache-lru
LRUキャッシュを使用し、最大Nノードの結果をキャッシュします。より多くのRAM/VRAMを使用する可能性があります
--use-split-cross-attention
分割クロスアテンション最適化を使用します。xformersが使用されている場合は無視されます
--use-quad-cross-attention
サブ二次クロスアテンション最適化を使用します。xformersが使用されている場合は無視されます
--use-pytorch-cross-attention
新しいpytorch 2.0クロスアテンション関数を使用します
--disable-xformers
xformersを無効にします
--force-upcast-attention
アテンションのアップキャストを強制的に有効にします。黒い画像が修正される場合は報告してください
--dont-upcast-attention
アテンションのアップキャストをすべて無効にします。デバッグ以外では不要です
--gpu-only
すべて(テキストエンコーダ/CLIPモデルなど)をGPUに保存して実行します
--highvram
デフォルトでは、使用後にモデルがCPUメモリにアンロードされます。このオプションは、GPUメモリに保持します
--normalvram
lowvramが自動的に有効になった場合に通常のvram使用を強制します
--lowvram
unetを部分に分割してvramの使用を減らします
--novram
lowvramが十分でない場合に使用します
--cpu
すべてをCPUで使用します(遅い)
--reserve-vram [] 🔥
使用するvramの量をGB単位で設定します
--reseve-vram 1.0 の場合、最も負荷がかかっている状態でもVRAMが1.0GB残ります
--default-hashing-function
重複するファイル名/内容の比較に使用するハッシュ関数を選択します(デフォルト:sha256)
--disable-smart-memory 🔥
モデルをVRAMに保持する代わりに通常のRAMに積極的にオフロードするようにComfyUIを強制します
--deterministic
可能な場合にPyTorchが遅い決定論的アルゴリズムを使用するようにします。ただし、これがすべてのケースで画像を決定論的にするとは限りません
--fast
未テストで潜在的に品質を低下させる最適化を有効にします
--dont-print-server
サーバー出力を表示しません
--quick-test-for-ci
CIのためのクイックテストを行います
--windows-standalone-build
Windowsスタンドアロンビルド:スタンドアロンのWindowsビルドを使用するほとんどの人が楽しむであろう便利な機能を有効にします(起動時にページを自動的に開くなど)
--disable-metadata
ファイルにプロンプトメタデータを保存しません
--disable-all-custom-nodes
すべてのカスタムノードの読み込みを無効にします
--multi-user
ユーザーごとのストレージを有効にします
--verbose
デバッグプリントを増やします
--front-end-version
使用するフロントエンドのバージョンを指定します。このコマンドは、GitHubリリースから利用可能なフロントエンド実装をクエリおよびダウンロードするためにインターネット接続が必要です。バージョン文字列は、[repoOwner]/[repoName]@[version]の形式である必要があります。バージョンは"latest"または有効なバージョン番号(例:"1.0.0")のいずれかです
--front-end-root
フロントエンドが配置されているディレクトリへのローカルファイルシステムパスを指定します。--front-end-versionをオーバーライドします
--user-directory
絶対パスでComfyUIユーザーディレクトリを設定します