2022/11 第4週 weekly_AI_news
2022/11/21 - 2022/11/27
#weekly_AI_news
2022/11/21
Img2Ass
Anything-V3をベースにVroid用の服を生成する
memeかと思いました(名前なんとかしてください)nomadoor.icon
ShutterstockはAI生成画像の投稿を許さず、すでに投稿されたものも削除する(DALL-E2を提供しているのにも関わらず) 🌐
Why can’t I claim copyright to AI-generated content if I am the one who produced the query that generated the synthetic content?
Because AI content generation models leverage the IP of many artists and their content, AI-generated content ownership cannot be assigned to an individual. Per our Contributor Terms of Service (Sections 13d and 13f), contributors must have proven IP ownership of all content that is submitted. As such, AI-generated content should not be submitted to Shutterstock.
Why was my content rejected as Non-Licensable Content?
画像生成AIは多くのアーティストその他のコンテンツIPを利用している
日本だと合法だと思う(判例が積み上がっていないので議論は紛糾)けど、アメリカ法だとダメなの?それともお気持ち表明なの?基素.icon
消費者が自分でAIで絵を作って使う分には私的利用の範囲だが、それを商品にして売るのはあかんよね?ということかなnomadoor.icon
Adobe StockではAI画像も歓迎している(らしい)
科学記事を自動で生成するAI「Galactica」がわずか3日で公開停止へ、入力内容次第で「ウソ記事」を生成可能と判明 🌐
2022/11/22
Magic3D
nvidiaが発表したtext-to-3D
やまかず - クリエイター.icon 日刊 画像生成AI 17/18日 🌐
InstructPix2Pix
Direct Inversion
https://arxiv.org/abs/2211.07825
Kive AI Canvas 🌐
同じキャンバスでみんなでアウトペンディングするサービス
AIPIC
AI作品投稿サイト
Null-text Inversion
InstructPix2Pixとの違いは?
DiffusionDet
@needle: [stable diffusion(stablediffusion)] のTextual Inversion追加学習で敢えて変形した画像を学習させ、学習結果を「ネガティブプロンプトに」使うという試み。手が!手がちゃんと出てる!! https://t.co/y5hzqSbye2
https://gyazo.com/4599d9c9f4a4fea6aa544da3d59ed45c
2022/11 第3週 weekly_AI_news#6376df4ce2dacc00004b978f
これと解釈が違うな…nomadoor.icon
生成に失敗した画像をDreamBoothで学習させて逆向きにぶつける方法もどこかにあるだろう
JukeboxWebUIがv0.3に
Revel.xyz
AIでゲーム用アセットを生成
Stanford debuts first AI benchmark to help understand LLMs 🌐
HELM(Holistic Evaluation of Language Models)
LLMを評価するための最初のAIベンチマーク
@ai_prompt_dev: AI画像プロンプトの学習者なら体感的に知っている「前方優位の法則」と「色が混ざる現象」の根拠を数値上で確認しました。CLIPというかTransformerの仕様上そんな気はしていたんですが、「各トークンは登場箇所から<以降すべて>に影響を及ぼし、<前方に遡って影響を与えることは無い>」ようです。続く
https://pbs.twimg.com/media/Fh2SdzwaAAAwb2j.jpghttps://pbs.twimg.com/media/Fh2Sd0dakAE18Vh.jpg
🔚
Latent-Paint-Mesh 🌐
Physna Generative AI
https://www.youtube.com/watch?v=AIFUDh6hxjM
Creating Equitable 3D Generative AI
Physnaが持っている3Dデータベースを利用
8000モデルしか使っていない
アセットを呼び出して配置しているように見えるがどういう仕組なんだろうか
https://www.youtube.com/watch?v=4ccWFL51Ut0
2022/11/23
ソニー、「MEEQ AI 文字起こし」サービスを提供開始 🌐
MoMAの最新展示作品はAI生成画像!? 🌐
Stablecog 🌐
ウェブ上で動く、Stable DiffusionのGUI
NLLBで70言語に対応
日本語も多分効いている
今日のAIミーム 🌐
https://gyazo.com/6180078af34e438f3ceee541baf7e28d
SDはOSでいうとLinuxで3DソフトでいうとBlenderだよねと言われていた
それらとの違いはAUTOMATIC 1111氏に頼りすぎているという点
確かにStable DIffusion web UIはBlenderというよりAviutl味を感じる…nomadoor.icon
WhichIsAI 🌐
AI絵を見分けるゲーム
I created a completely A.I.-generated webcomic - over 10,000 generations for 100 panels (Paintings & Photographs) 🌐
https://globalcomix.com/c/paintings-photographs/chapters/en/1/1
2022/11/24
Stable-Diffusion-Pickle-Scanner-GUI 🌐
PickleファイルのマルウェアをスキャンするためのGUI
中身はPython Pickle Malware Scanner 🌐
DreamBoothモデルを使うことのセキュリティリスク
画像生成AI「Stable Diffusion」のバージョン2.0が登場、出力画像の解像度が拡大&デジタル透かしを入れられる機能も 🌐
Stable Diffusin 2.0
久しぶりの大ニュース
きたあああああああ!wogikaze.icon
SDとDeepFaceLabを使ったvid2vid 🌐
https://v.redd.it/49152f7wcv1a1/DASH_480.mp4
SDで数枚のディズニー風の顔をつくり、DeepFaceLabで置き換える
multi-subject-render 🌐
SDの深度マップをつかて複数人を破綻なく描く
2022/11/25
DiffEdit
編集する場所をテキストで指定できるimg2img
We need as a community to train Stable Diffusion by ourselves so that new models remain opensource 🌐
新しいモデルがオープンソースであり続けるために、コミュニティとして自分たちでStable Diffusionをトレーニングする必要があります。
当然出てくる流れなものの、誰がそのコストを払えるか
Stable HordeのようなP2Pを作れるか?
今日のAIミーム 🌐
https://gyazo.com/899cfc25659098871ab8fc2e385a9696
voltaML-fast-stable-diffusion 🌐
voltaMLによる高速化
Hivemind 🌐
Stable DIffusion モデルについての初心者ガイド 🌐
2022/11/26
Magic Poser + Stable Diffusion v2 depth2img 🌐
https://gyazo.com/7ca419720fbe933b6c068e50d21d1026
depth2imgはimage2imageよりポーズを保持できるよ
depthmap2mask 🌐
深度マップをinpaintingのマスクとして使う
Trying animation - Dance music video, v1.5, Studio Ghibli 🌐
https://v.redd.it/ky1pv9j6c52a1/DASH_240.mp4
@pharmapsychotic: [stable diffusion 2.0(stablediffusion2)] uses the OpenCLIP ViT-H model trained on the LAION dataset so it knows different things than the OpenAI ViT-L we're all used to prompting. To help out with your [Stable Diffusion 2.0(SD2)] prompts here's a new ViT-H powered CLIP Interrogator!
https://t.co/65Oo9u5fjy
#aiartcommunity
https://gyazo.com/2f5fd310141e58933de3bb64ed744a0b
Stable Diffusion 2.0はOpenCLIPのCLIP ViT-H/14モデルを使っているから、web UIのpromptだとうまくいかないよ(?)
web UIはCLIP ViT-L/14
Hentai-Diffusion 🌐
名前に反してSFWの目的で作っている(NSFWも作れるけど)
が、GitHubで使われている画像がNovelAIで作られた疑惑がある
注意
CLIP is not Skynet: a primer on why your negative prompts are idiotic and why you should quit mysticising machine learning 🌐
Negative promptに意味はない
bad handsやbad anatomyといったものはデータセットの中にほとんど存在しない
作風ではなく、あくまで正しい人体を描こうとした際の話かなnomadoor.icon
やまかず - クリエイター.icon 日刊 画像生成AI 19/20日 🌐
元素法典 2.5巻 🌐
artstation-diffusion v1.0
WD 1.4のためのテスト
OneFormer 🌐
Better not bigger: How to get GPT-3 quality at 0.1% the cost 🌐
🔚
depth2imgを使ったスプライトシート 🌐
https://gyazo.com/2ec0d6301099e8cbe4d6e6a393ee2df5
ターンテーブルに載せたモデルでこれをやれば3Dモデル作れるのでは?というコメントがあった
Stable Diffusion 2.0が使えるUIまとめ 🌐
Stable Diffusion web UIが2.0に対応 🌐
2022/11/27
Distributed Diffusion 🌐
おそらくStable HordeのDreamBooth版
2022/11 第3週 weekly_AI_news←ここ→2022/12 第1週 weekly_AI_news