wan-lora-pruned
https://huggingface.co/woctordho/wan-lora-pruned/woctordho/wan-lora-pruned
なにやらWan2.1/Wan2.2の特に大型LoRAをPruningして小さくしたのを置いている多分有志のリポジトリ
確かによく考えるとキーが無くなってもマージがスキップされるだけで再トレーニングも不要なlora側のPruningは(動作時メモリの消費があまり変わらないのでベースモデルに比べする旨味も減るが)ほぼデメリット無し(元のloraに比べて主要効果以外の影響力が減るor失うがメリットにもデメリットにもなる所なので…)でファイルサイズを縮められるし結果としてロード時間も多少速くなるはず…なのでローリスクでミドルリターン位はあるmorisoba65536.icon