2022/11 第4週 weekly_AI_news
2022/11/21 - 2022/11/27
2022/11/21
Anything-V3をベースにVroid用の服を生成する
memeかと思いました(名前なんとかしてください)nomadoor.icon
Why can’t I claim copyright to AI-generated content if I am the one who produced the query that generated the synthetic content?
Because AI content generation models leverage the IP of many artists and their content, AI-generated content ownership cannot be assigned to an individual. Per our Contributor Terms of Service (Sections 13d and 13f), contributors must have proven IP ownership of all content that is submitted. As such, AI-generated content should not be submitted to Shutterstock.
画像生成AIは多くのアーティストその他のコンテンツIPを利用している 日本だと合法だと思う(判例が積み上がっていないので議論は紛糾)けど、アメリカ法だとダメなの?それともお気持ち表明なの?基素.icon
消費者が自分でAIで絵を作って使う分には私的利用の範囲だが、それを商品にして売るのはあかんよね?ということかなnomadoor.icon
科学記事を自動で生成するAI「Galactica」がわずか3日で公開停止へ、入力内容次第で「ウソ記事」を生成可能と判明 🌐 2022/11/22
同じキャンバスでみんなでアウトペンディングするサービス
AI作品投稿サイト
https://gyazo.com/4599d9c9f4a4fea6aa544da3d59ed45c
これと解釈が違うな…nomadoor.icon
生成に失敗した画像をDreamBoothで学習させて逆向きにぶつける方法もどこかにあるだろう
AIでゲーム用アセットを生成
Stanford debuts first AI benchmark to help understand LLMs 🌐 HELM(Holistic Evaluation of Language Models) @ai_prompt_dev: AI画像プロンプトの学習者なら体感的に知っている「前方優位の法則」と「色が混ざる現象」の根拠を数値上で確認しました。CLIPというかTransformerの仕様上そんな気はしていたんですが、「各トークンは登場箇所から<以降すべて>に影響を及ぼし、<前方に遡って影響を与えることは無い>」ようです。続く https://pbs.twimg.com/media/Fh2SdzwaAAAwb2j.jpghttps://pbs.twimg.com/media/Fh2Sd0dakAE18Vh.jpg
🔚
https://www.youtube.com/watch?v=AIFUDh6hxjM
Physnaが持っている3Dデータベースを利用
8000モデルしか使っていない
アセットを呼び出して配置しているように見えるがどういう仕組なんだろうか https://www.youtube.com/watch?v=4ccWFL51Ut0
2022/11/23
ウェブ上で動く、Stable DiffusionのGUI
日本語も多分効いている
https://gyazo.com/6180078af34e438f3ceee541baf7e28d
AI絵を見分けるゲーム
I created a completely A.I.-generated webcomic - over 10,000 generations for 100 panels (Paintings & Photographs) 🌐 2022/11/24
画像生成AI「Stable Diffusion」のバージョン2.0が登場、出力画像の解像度が拡大&デジタル透かしを入れられる機能も 🌐 久しぶりの大ニュース
きたあああああああ!wogikaze.icon
https://v.redd.it/49152f7wcv1a1/DASH_480.mp4
SDで数枚のディズニー風の顔をつくり、DeepFaceLabで置き換える
SDの深度マップをつかて複数人を破綻なく描く
2022/11/25
編集する場所をテキストで指定できるimg2img
We need as a community to train Stable Diffusion by ourselves so that new models remain opensource 🌐 新しいモデルがオープンソースであり続けるために、コミュニティとして自分たちでStable Diffusionをトレーニングする必要があります。
当然出てくる流れなものの、誰がそのコストを払えるか
https://gyazo.com/899cfc25659098871ab8fc2e385a9696
Stable DIffusion モデルについての初心者ガイド 🌐 2022/11/26
https://gyazo.com/7ca419720fbe933b6c068e50d21d1026
深度マップをinpaintingのマスクとして使う
Trying animation - Dance music video, v1.5, Studio Ghibli 🌐 https://v.redd.it/ky1pv9j6c52a1/DASH_240.mp4
@pharmapsychotic: [stable diffusion 2.0(stablediffusion2)] uses the OpenCLIP ViT-H model trained on the LAION dataset so it knows different things than the OpenAI ViT-L we're all used to prompting. To help out with your [Stable Diffusion 2.0(SD2)] prompts here's a new ViT-H powered CLIP Interrogator! https://gyazo.com/2f5fd310141e58933de3bb64ed744a0b
名前に反してSFWの目的で作っている(NSFWも作れるけど)
が、GitHubで使われている画像がNovelAIで作られた疑惑がある
注意
CLIP is not Skynet: a primer on why your negative prompts are idiotic and why you should quit mysticising machine learning 🌐 bad handsやbad anatomyといったものはデータセットの中にほとんど存在しない
作風ではなく、あくまで正しい人体を描こうとした際の話かなnomadoor.icon
WD 1.4のためのテスト
Better not bigger: How to get GPT-3 quality at 0.1% the cost 🌐 🔚
https://gyazo.com/2ec0d6301099e8cbe4d6e6a393ee2df5
ターンテーブルに載せたモデルでこれをやれば3Dモデル作れるのでは?というコメントがあった
2022/11/27