OpenFLUX.1
https://gyazo.com/be4bc590838547ae425047f23ca81404
https://huggingface.co/ostris/OpenFLUX.1ostris/OpenFLUX.1
FLUX.1-schnell版Flux-Dev2Pro
蒸留前の状態に戻すことによりファインチューニングできるようにする
@ostrisai: @DMBTrivia @kohya_tech It was trained on thousands of schnell generated images with a low LR. The goal was to not teach it new data, and only to unlearn the distillation. I tried various tricks at different stages to speed up breaking down the compression, but the one that worked best was training with
LRの低い何千ものシュネル生成画像で学習させた。 目標は、新しいデータを教えず、蒸留の学習だけを解除することだった。 圧縮の分解を早めるために、さまざまな段階でさまざまなトリックを試したが、最も効果があったのは、2-4のCFGで空白の無条件でトレーニングすることだった。 これにより、流れを断ち切るスピードが劇的に速くなったようだ。 CFGチューニング後、再び安定させるために従来のトレーニングで最終ランを行った。
現時点では、素晴らしい結果を得るために必要なステップ数(50~200)よりもはるかに多くのステップを踏んでいるため、過度に蒸留されている可能性がある。 現在、これを改善するために取り組んでいるところだ。
同様のモデル
LibreFLUX
Flex.1 alpha