写真をジブリ風にするバズ
GPT-4oの画像生成ではやったらしい
XTwitterで流行ったのだろう
Sam Altmanのアカウントがそうだったし
その前にもこういうのは何度かはやってるはず
友人A.iconTiktokで数ヶ月前に流行った
from 2025-04-13
ジブリ風にするのが流行ったらしい
https://www.youtube.com/watch?v=xj74-wK7vsQ
福井健策
o1.icon基素.icon
「ジブリ風」や「◯◯風」といった「スタイルの模倣」そのものは、著作権上はアイデアの範囲とみなされる場合が多い。
ただし、実際のキャラクターや作品の“具体的な表現”とほぼ同じになると著作権侵害になる可能性が高い。
構図、キャラクター造形
これは、世界共通の基本ルール
ユーザーの立場で言えば、単に「風」を付けただけの画像やイラスト生成なら著作権侵害のリスクは低め。
しかし「トトロ」や「ミッキーマウス」など、キャラクター名を直接入力してそっくりなものを作り拡散した場合は、侵害とみなされる可能性がある。
法律はなんでもそうだが、境界線の問題は常に曖昧。100-200年ずっとそれで争っている。基準を明瞭に示すことは不可能
しかし、「スタイルに従っても何百通りもかけるはずだ」と言うものはアイデアと言えるだろう
「ジブリ風」はこれに該当するだろう
影響から考える
「このくらいまでは使えないと文化継承できない」ならアイデア
これができるならクリエイターはどう食っていけばいいんだ?は模倣
モデルは画像を保存していない。忘れていても依拠性があるのか?
推認されるとしたが、学習データに作品があるか権利者は立証できない
ユーザーが出してやろうとしたら依拠ありでいいのではないか。これで依拠はクリアだ
事業者は責任を負う?
類似物が高頻度で生成されるならおう
蓋然性を認識しながら防止措置をおわない
AIそのもの学習がひっくり返される可能性はまだ残っている
学習段階(AIを開発する会社側)の無断データ取得や大量コピーは、アメリカなどではフェアユース(公正な利用)を争点に裁判が進行中
アメリカのITが伸びた著作権的な理由の一つ
今後の判決次第では「学習自体が著作権侵害になるかどうか」が左右され、AI開発が大きく制限されるかもしれない。
注目の判例
(非生成の)AI学習でフェアユースを否定したデラウェア連邦地裁判決
日本ではどうなるか?
もし学習が違法となるなら、モデルを再度作り直す必要があるだろう。膨大な金がかかる
著作権法30条4で許されているが、但し書きの解釈に議論がある
現に市場で打撃を受ける可能性があるときに、学習は権利者の利益を不当に害していないのか?文化審議会でも大変議論となった
福井の考えは「不当に害する可能性はあり、個別ケースを見るべき」
文化審議会としてはスタイル模倣のための学習はOKの意見が若干上回った
今後どうなるのかわからない
ジブリのスタイル模倣でジブリの売り上げが下がるとは考えないが
個別のクリエイターの模倣が市場に売り上げが減っていったことが観測された場合に、裁判所がどう判断するのかはわからない
実害が広がらないと裁判所も立法も動けない
法律は必ず周回遅れになる
現実の先回りをするのは危ないため
全く問題のない利用も防いでしまうことになる
基素.icon
福井先生は人間と機械は別扱いした方が良いと考えているようだ
機械と人間を区別しなければいけないのはなぜ?
機械と人間を区別できる?
機械に大きく依存した人間と機械を区別できる?そしてそれをすべき?
日本では「情報解析のためなら著作物の複製を認める」という著作権法の規定があるが、
それでも「権利者の利益を不当に害する」学習は認められない可能性がある。
まだ解釈がはっきり固まっておらず、裁判や社会の動き次第で変化する余地がある。
声の模倣(人気声優や歌手などの音源をAIが学習してそっくりに発声する)については、著作権よりもパブリシティ権や不正競争防止法など別の法律で問題視されることもある。
一定方向であれば不競法と言う生命が出た
AI事業者の責任:
侵害的な出力が高頻度で起きたり、侵害が起きやすいのを放置していると、AI開発会社にも責任が及ぶ可能性がある。
反対にユーザー側は「勝手にそっくりの有名キャラクターを生成し、SNSに投稿する」などの行為で責任を追うことがある。
使う側の注意点は自分なりのポリシーを考えることが大事
AIでできても、自分は〜をしないよ、と言うことを決める
どのAIサービスを使うか(利用規約の確認や、学習に使われるかどうかなど)が違う
規制の流れ:
EUのAI法のように「AI生成物はAIによるものだと明示する」義務づけなど、ルールを整備する動きがある。
福井 これは法的な義務づけや促しをしてもいいと思う
Deepfakeが防げないし、さまざまなビジネスもスタートに立ちづらい
学習データが開示されない問題
クリエイター側が対等な交渉ができないと言う声がある
何らかの安全装置をもうけた上で、権利者が自分の権利を行使するときのみに限定して知ることができる、とかがあると良い。これは法律の出番がもしれない
日本でも将来的に学習データの開示ルールや生成物へのラベリング(AI作成物であることの表示)の法整備が議論されるかもしれない。
AIが不完全なのではなく、人間が不完全であり、人間が悪用する
最終的に、「どこからが侵害か」の線引きは曖昧だが、AIの利用や開発が拡大するにつれ裁判や法改正で徐々に具体化していく見通し。
企業や個人それぞれが、自分なりに「AIをどう使うか」という方針を考えておくことが重要になってくる。
基素.icon
o1のまとめはしんをくってないように感じた
解像度が高いからか
法律や争点をo1がよく理解してまとめたとは思えない
2hopの情報を与えてまとめなおさせればよかったか