💬雑談
📌掲示板
code:style.css
:root{--bulletin-board: "Sleep can wait, but progress cannot.";}
$ Sleep can wait, but progress cannot.
ここの文章がホーム上部に掲載されます。楽しく使ってね☆
答え合わせ
半年後にAIはいったいどうなっているのか 2023年上半期
半年後にAIはいったいどうなっているのか 2023年下半期
半年後にAIはいったいどうなっているのか 2024年上半期
半年後にAIはいったいどうなっているのか 2024年下半期
取り敢えず作った(予想するのが間に合うか不明)morisoba65536.icon
半年後にAIはいったいどうなっているのか 2025年上半期
半年後にAIはいったいどうなっているのか 2025年下半期
2025/10/18
https://x.com/ostrisai/status/1979250513209364641量子化とDRAMオフロードを組み合わせてQwen-Image-Edit-2509をVRAM10GB未満でトレーニング出来るらしい
2025/10/17
昨日気さくにComfyUIをまるっとアップデートしたらうっかりPytorch2.9入っちゃってFlashAttentionが使えなくなって割と焦った(ずっとComfyUI-BAGELがごちゃごちゃ更新されてたのはこれのせい)morisoba65536.icon
ComfyUI-Temporal-Mask-Tools
初カスタムノード…(99%AI産)nomadoor.icon
👍️morisoba65536.icon
2025/10/16
https://www.reddit.com/r/AudioAI/comments/1mu9cot/music_diffusion_model_trained_from_scratch_on_1/?utm_source=share&utm_medium=mweb3x&utm_name=mweb3xcss&utm_term=1&utm_content=share_buttonだいぶ前の記事だけど個人で音楽生成モデルを学習した人がいた模様
2025/10/15
https://github.com/ttulttul/ComfyUI-FlowMatching-Inverter全然調べてないけどちょっと読むとフローを逆方向に動かしてNoiseを追加するノードらしいmorisoba65536.icon
https://www.reddit.com/r/comfyui/comments/1o6i3x8/native_wan_22_animate_now_loads_loras_and_extends/Wan-AnimateにてLoraをロードするモジュール
https://www.reddit.com/r/StableDiffusion/comments/1o6ftq9/30sec_wan_videos_by_using_wananimate_to_extend/Wan-Animateで動画拡張するWorkflow?
WanAnimateのポーズ入力とか全部無視して、VACE Extensionとしてtext2videoするってことかなnomadoor.icon
2025/10/14
ACE-Step、ピアノの音が万能すぎるからか、かなり意図してピアノを弱める指示をしないとピアノ独奏会になりがちな程度に.「とりあえず主旋律にピアノ」を回してくる(インスト曲を作ろうとした場合)morisoba65536.icon
ピアノを入れてサブにしたい場合(piano:0.25)より弱めるくらいでちょうどよくなる…
ただピアノの強さはともかく結構変な楽器の使い方も指示するとしてくれるので、楽器の使い方のバリエーションはSora2より普通に優秀かもしれない(音楽専用モデルなんだからそりゃそうといえばそうだろうけど)
2025/10/12
https://x.com/toyxyz3/status/1976630994741727369多分Wan2.1の蒸留Lora
Comfy Cloud来たけど、ハードウェア何使ってるかとか分かんないなnomadoor.icon
チラ裏だけどSora 2で音楽生成にハマってACE-Stepを使い始めたmorisoba65536.icon
そしてサウンド保存系ノードがことごとく日付とかのパースに未対応…またお前らか…morisoba65536.icon
ついでにワークフローも未保存…ちと面倒だな…
こちらの現実的な解決策としては🦊空の画像ノード→🦊Save Animated WEBPノードで、保存するフレームレートか画像の色を外出しでインクリメントあたり(全く同じ画像では保存してくれないので)に設定して保存ごとにwebpも保存が一番容量に優しい感じかもしれない(だいぶ苦しいが)morisoba65536.icon
2025/10/10
https://x.com/SlipperyGem/status/1976276685592146336Qwen-Image-Edit-2509のピクセルシフト問題を解決したWorkflowにデフォルトノードが更新されたらしいmorisoba65536.icon
TextEncodeQwenImageEditノードにvae入力するのやめて、vaeの処理をReferenceLatentノードに変えてるだけですねnomadoor.icon
前からこの処理してたけど、他に要因たくさんあるのでピクセルパーフェクトにはならないと思う
というか画像はtextencodeノードに入力しとかないとQwen-VLの処理入らない気がするけどなぁ
2025/10/9
https://www.reddit.com/r/comfyui/comments/1o1skhn/a_word_of_caution_against/?utm_source=share&utm_medium=mweb3x&utm_name=mweb3xcss&utm_term=1&utm_content=share_buttonだいぶ怪しい(一歩間違えると実害のありそうな)アカウントが最近アクティブらしいという注意喚起morisoba65536.icon
これは明確に悪意がありそうなので別だけど、Vibe codingしまくってたらいつか自分もやらかしそうな気がするnomadoor.icon
2025/10/7
https://huggingface.co/Kijai/WanVideo_comfy_fp8_scaled/blob/main/T2V/Wan2_2-T2V-A14B-HIGH_4_steps-250928-dyno-lightx2v_fp8_e4m3fn_scaled_KJ.safetensorshttps://www.reddit.com/r/comfyui/comments/1nu9mhh/oc_multishot_t2v_generation_using_wan22_dyno_with/謎のモデルWan2.2 dyno(kijaiリポジトリ以外では後述のGGUFしか見つからず何かわからない…カメラワークに強いらしい?)morisoba65536.icon
https://huggingface.co/QuantStack/Wan2.2_T2V_A14B_4steps_25-09-28_Dyno_High_lightx2v-GGUFGGUF版
Sora 2 APIだと透かしないのかnomadoor.icon
2025/10/6
Grokも動画生成対応したみたい、日本語は話せない(謎言語になる)が声や音は出る
I2V専用
一枚目は必ず1フレーム目でそこから連続する動画になる(Sora 2のようにプロンプトで実質的な参照画像扱いにはならない)
無茶な遷移を指定しても連続した動画になる
一応必要に応じてカット切り替えも使うが基本的はシームレスな遷移を好むようで可能な限りシームレスに動く
センシティブはかなり緩い(と言うよりこれはSora2がめっちゃ厳しいと言う方が正解かもしれない)
良くも悪くもかなり素直に「指示に忠実に従う」タイプの挙動(たまに途中からコンテキスト忘れるが)。割とアバウトな指示でもよしなにする一方で結構指示無視もしがちなSora2より制御性は高いかも知れない
2025/10/4
Sora 2でしばらく遊んで、今までのモデルに比べて明らかに強いのが「画面外のオブジェクトを画面に収まる位置にカメラワークをして何らかの操作をする(今画面に映ってない位置のドアを開けるなど)」「単一の動画内で複数のカットをCharacter一貫性を維持して使い分けれる(PVの様なカットが目まぐるしく変わるものでも対応できる)」といった所がホントに強い。morisoba65536.icon
「アニメのタイアップPV」見たいなアニメと実写がころころ入れ替わるような映像でも対応できる。
ただ、長文・詳細な指示ほど安定感が落ちるし編集能力は低め(Remix機能もあまり指示通りには動いてくれない)なので、少なくとも現時点ではあくまでもメインスコープはSNS向けショート動画っぽいなぁ…(ポテンシャルレベルではガッツリ映像作れそうだが今のところそちらに作りが向いていない)morisoba65536.icon
2025/10/3
https://huggingface.co/OPPOer/Qwen-Image-Edit-PruningQwen-ImageのpruningモデルにEDITが加わった。モデルの性質的にLoraなどを使うことも少ないしComfyUIが対応してくれると割と恩恵が大きいかも知れないmorisoba65536.icon
https://civitai.com/models/1993310/clothconsistency-wan22-i2v-consistencylora2FramePackでやっていたような一枚目を参照画像とする推論見たいな事がWan2.2でも出来たようだmorisoba65536.icon
VACEのreferenceと似た挙動だけどどういう仕組みなのかなnomadoor.icon
多分一フレーム目の画像の服を着た人物が動いてる動画を複数学習させたんじゃないかな…?morisoba65536.icon
単純に参照画像→編集後画像の2フレームで学習できたりするのかなnomadoor.icon
データセット作るのが大変じゃ…
2025/10/2
LoraExtractKJノードと言うノードをComfyUI-KJNodesで見つけた、変換速度は🦊Extract and Save Loraノードより(多分中間の差分モデルを作らず直接ノード内で差分とって変換してるからか)早くてcpuメモリの方を使ってくれるので大きいランクにもしやすそうmorisoba65536.icon
🦊ChromaやLumina-Image-2.0(実質Neta Lumina)あたりはCivitaiにスタイルLoraが増えてきてじんわり普及してる感じは受けるmorisoba65536.icon
2025/10/1
https://www.reddit.com/r/Qwen_AI/comments/1n6bcve/how_to_reduce_qwen330bs_overthinking/?utm_source=share&utm_medium=mweb3x&utm_name=mweb3xcss&utm_term=1&utm_content=share_buttonReasoning ModelのOverThinkingは最近のモデルで割と課題になっているようだ(リンクは特にその事が指摘されやすいらしいQwen3のOverThinkingに対してのスレッド)
https://x.com/toyxyz3/status/1973348063390667252https://x.com/toyxyz3/status/1973360269469651323Sora 2、ホントにレベチな奴出してきたな…morisoba65536.icon
https://openai.com/ja-JP/index/why-language-models-hallucinate/間違いにペナルティを課すやり方が動画生成モデルでも使われたりしたのかなと?思ったりnomadoor.icon
にしてもAniSoraが微笑ましく見えるくらい食わせまくってるな…
雑談 2025年9月/雑談 2025年8月/雑談 2025年7月/雑談 2025年6月/雑談 2025年4-5月/雑談 2025年3月/雑談 2025年2月/雑談 2025年1月
雑談 2024年9-12月/雑談 2024年6-8月/雑談 2024年5月/雑談 2024年4月/雑談 2024年3月/雑談 2024年2月/雑談 2024年1月
雑談 2023年12月/雑談 2023年11月/雑談 2023年10月/雑談 2023年9月/雑談 2023年8月/雑談 2023年7月/雑談 2023年6月/雑談 2023年5月/雑談 2023年4月/雑談 2023年3月/雑談 2023年2月/雑談 2023年1月
雑談 2022年12月/雑談 2022年11月