wan-lora-pruned
https://huggingface.co/woctordho/wan-lora-pruned/
woctordho
/wan-lora-pruned
なにやら
Wan2.1
/
Wan2.2
の特に大型
LoRA
を
Pruning
して小さくしたのを置いている多分有志のリポジトリ
確かによく考えるとキーが無くなってもマージがスキップされるだけで再トレーニングも不要なlora側の
Pruning
は(動作時メモリの消費があまり変わらないのでベースモデルに比べする旨味も減るが)ほぼデメリット無し(元のloraに比べて主要効果以外の影響力が減るor失うがメリットにもデメリットにもなる所なので…)でファイルサイズを縮められるし結果としてロード時間も多少速くなるはず…なのでローリスクでミドルリターン位はある
morisoba65536.icon