LoRA_Easy_Training_Scripts(右画面の説明)
長くなりそうなのでページ分割
データセット回りについてはTomlの保存とかに若干バグあるので注意(2023-06-04現在)
確認してる限りでは
・ロードするごとにデータセットの表示順が入れ替わる
・設定したデータセット名が保存されてないっぽい(ロードしなおすと空)
一応、学習できないとかの致命的なものではないので次のアプデ待ち
https://scrapbox.io/files/647d40812416a2001bc12563.png
データセットの追加方法
「Name of subset」にデータセットの名称を設定
分かりやすい名前を付ければOK
日本語が大丈夫かは未検証
「ADD DATA SUBSET」ボタンを押すことで下にデータセットの設定が追加される
「Name of subset」は空でも追加出来ます
データセットの削除方法
ゴミ箱マークのボタンを押せばOK
各データセットの設定
Input Image Dir
画像が入っているフォルダを指定する
フォルダ名が「10_1girl」となっている場合、自動的に「Number of Repeats」に値が入る
画像が入っているフォルダそのものを指定すること
※他のツールと指定先が若干違うので注意!
Number of Repeats
対象データセットの繰り返し回数を設定
Keep Tokens
キャプションの先頭に保持されるトークンの数です
キャラクターの名前や服装のタグなど、常に最も重み付けされるタグを設定したい場合に最適です
以上、翻訳文まま
トリガーワードなどを設定する場合は設定しておけば良いと思います
Caption Extension
キャプションファイルの拡張子を指定
txt か caption のどちらか
各々の環境に合わせて変更してください
shuffle captions
トレーニング中、キャプションファイル内のキャプションはシャッフされます
キープトークンを 0 より大きい値に設定すると、キープトークンに等しいタグはシャッフルされず先頭に残ります
これはファイルの先頭にキャラクター名などを保持するのに最適です
過剰適合を軽減するため、これをオンにすることをお勧めします
以上、翻訳文まま
キャプションファイル内のキャプションをシャッフルすることで過学習の軽減が望めるかも…?
Keep Tokensと合わせて使う物ですが、そこまで効果実感したこと無し
flip augment
トレーニング中に画像の潜在を反転します
バイアスを軽減するのに効果的ですが、データセットが非対称の場合は問題が発生する可能性があります
以上、翻訳文まま
キャラLoRAの場合は使用しないのが吉
左右対称の物であれば向きの固定など防ぐ意味でONにした方が良いかも
color augment
トレーニング中に画像の色をランダムに変更します
ただし、これはキャプションを変更しないのであまり役に立ちません
潜在キャッシュでは機能しません
以上、翻訳文まま
基本的に使うことはない
GENERAL ARGS の 「Cache Latents」にチェックが入ってる場合は機能しない
random crop
隅からと中央からランダムに切り取ります
学習したい画像の端にある部分がある場合に非常に効果的です
潜在キャッシュでは機能しません
以上、翻訳文まま
学習させたい画像の隅など学習対象が画面上の端などに偏在してる場合、効果があるらしい
が、学習画像を切り抜いて準備した方がよっぽど良いと思う
GENERAL ARGS の 「Cache Latents」にチェックが入ってる場合は機能しない
regularization image
指定されたフォルダーが正則化イメージであるイメージである場合は、これを選択します
以上、翻訳文まま
正則化画像のデータセットの場合はこれにチェック入れる
※チェック忘れると通常データセットに回されちゃうので注意!
OPTIONAL ARGS
https://scrapbox.io/files/647d45ed2416a2001bc1a73b.png
FACE CROP
トレーニング前にデータセットに含まれる各画像の顔をトリミングしてデータセットを補足します
これらのファイルに追加のキャプションが提供されるとは思えないのでこれはかなり役に立ちません
以上、翻訳文まま
使わなくていいと思います
使う場合は個々で調べて使ってください
CAPTION DROPOUT
トレーニング中に以下のさまざまなコントロールに従ってキャプションを除外できます
個人的にはあまり役に立たないので使用しないことをお勧めします
以上、翻訳文まま
使わなくていいと思います
使う場合は個々で調べて使ってください
TOKEN WARMUP
トークンのウォームアップはモデルのトレーニング中にタグを徐々に導入する方法です
両方の変数が必要です
以上、翻訳文まま
使ったこと無いので効果は分からないです