GLAZE
https://arxiv.org/abs/2302.04222Glaze: Protecting Artists from Style Mimicry by Text-to-Image Models
https://glaze.cs.uchicago.edu/download.html
https://kai-you.net/article/86102「画像生成AIから自分のイラストを守る」学習・模倣の対策ツール「Glaze」無償公開へ
「Glaze」は、アートワークへ人間の目にはほとんど見えない微小な変更を加えるツール。それによって、画像生成AIがそのアートワークを学習する際、別の画風(例えばゴッホなど)に解釈させるものだという。
オプトアウトは理解できるのだけど、これを学習したせいで画像生成モデルが汚染されるとなると、またややこしくなりそうだな…nomadoor.icon
効果あるのだろうかこれ?wogikaze.icon
とりあえず拡大しなくてもわかるレベルでノイズが乗ってたのでびみょい
nijiの画像にGlazeかけて学習してみたけど、元論文にあるような大きな崩壊は見られなかった。Glazeによってつけられたノイズをそのまま学習した模様。nyoplat.icon https://twitter.com/p1atdev_art/status/1637001550672564224?s=20
あと Glaze をかける過程で Stable Diffusion v1.5 が動いてるぽいので、SD で学習されないために SD を使うという奇妙なかんじ inu.icon
Glaze is violating GPLhttps://www.reddit.com/r/StableDiffusion/comments/11sqkh9/glaze_is_violating_gplKatsuyuki-Karasawa.icon
DiffusionBeeからフロント/バックどちらもソースコードを盗用
DiffusionBeeはGPLで、GlazeはclosedなのでGPL違反
少数のイラストレーター/デザイナーの権利を守るために、大多数のエンジニアの権利を剥奪するとはこれ如何に🤔
やっちゃってるじゃんwogikaze.icon
https://arxiv.org/abs/2406.12027Adversarial Perturbations Cannot Reliably Protect Artists From Generative AI
https://gigazine.net/news/20240708-glaze-ai-attack/アーティストがAIによるスタイルのコピーを防ぐための無料ツール「Glaze」がクラックされて突破されたことが明らかに
研究チームが公開したGlazeの保護を突破する方法は、画像のアップスケーリングや新しいデータでAIをトレーニングする際に「別の微調整スクリプトを使用する」「トレーニング前に画像にガウスノイズを適用する」といったものです。研究チームは「これらの手法を適用することで、既存の保護を大幅に低下させることが可能です」と指摘しています。
学習阻害