Wan2.1-Fun-Reward-LoRAs
https://huggingface.co/alibaba-pai/Wan2.1-Fun-Reward-LoRAsalibaba-pai/Wan2.1-Fun-Reward-LoRAs
私たちは、Wan2.1-Funによって生成された動画を、人間の好みにさらに合致させるために、Reward Backpropagationという手法を検討しています。学習スクリプトとともに、以下の事前学習済みモデル(LoRA)を提供します。
https://huggingface.co/Kijai/Wan2.1-Fun-Reward-LoRAs-comfy/tree/mainkijai氏によってComfyUI向けフォーマットに変換されたLora
AIにまとめさせたHPSとMPSの違い
https://gyazo.com/74f24826267b2a0fdc20ac7b8223a46e
以下もAIのまとめ
実践的な使用上の注意点
LoRA強度設定:0.4-0.5が推奨(0.6以上で歪み発生の報告あり)
モデル互換性:Wan-Funシリーズ以外でも使用可能(強度調整が必要)
ワークフロー統合:ComfyUI向けに変換済みモデルが提供されており、リアルタイム処理が可能
最適化戦略:HPSとMPSを組み合わせたハイブリッド使用が効果的との報告あり
YouTubeデモ動画では、HPSを適用した場合にキャラクターの美的表現が強調される反面、MPSでは自然な動きの連続性が向上することが実例で示されています。論文によれば、HPSはDPO(Direct Preference Optimization)と比較して平均報酬マージンを89%向上させたとのデータがあります。
実際に(T2Iの静止画だが)同一プロンプト、同一Seedで試すとこんな感じ(静止画なのでMPSの動きの強みはやや発揮しきれてないが)
なし(参考)
https://gyazo.com/63f697c2624c72c822505fec2ee227de
HPS(0.45)
https://gyazo.com/e4805e79738b8e8e05c74163fdaf1fe9
MPS(0.45)
https://gyazo.com/26b59b709110982b3d89b2eb29c52e55
HPS+MPS(0.45+0.45)
https://gyazo.com/e79c5ce48344c747fecee679cc507c16
両方乗せのそこはかとないマスピ感morisoba65536.icon
Wan2.1-Fun
ネット上の報告では通常のモデルにも使える(画質向上する)らしい?
https://www.reddit.com/r/StableDiffusion/comments/1jtfx1i/wan21fun_has_released_its_reward_loras_which_can/?utm_source=share&utm_medium=mweb3x&utm_name=mweb3xcss&utm_term=1kijai氏いわく、HPSのほうがフレーム毎の品質が高く、MPSのほうがプロンプトに従い動きが安定する?なモデルらしい
(個人の感想)Wan2.2でも(Low Noise側に)適用してみたけど、元々Low側はかなり画質に特化して追加学習されてるからかWan2.1の時ほど劇的に画質改善!ってほどの効果は見られていない。morisoba65536.icon
ただ、2.2用のワークフロー(High+Lowの二段階)使う場合はLow Noise側に強度1でHPSとMPSの二重掛け…とか言う元モデルでやるとアーティファクトだらけになる組み合わせでも、極端なアーティファクトも出ずに画を整えられるので二段階Workflowなら雑に組み込むのも好み次第だがアリな感じmorisoba65536.icon