Zero-1-to-3
https://gyazo.com/8f4d195ac2daffffc7356a036d4a3c98
Project : https://zero123.cs.columbia.edu/
Paper : https://arxiv.org/abs/2303.11328Zero-1-to-3: Zero-shot One Image to 3D Object
Code&Model : https://github.com/cvlab-columbia/zero123
Demo : https://huggingface.co/spaces/cvlab/zero123
Live Demo : https://huggingface.co/spaces/cvlab/zero123-live
画像一枚だけから、視点を変えた別角度からの画像を生成できる
事前学習モデルのデータセットに使用していないような画像に対しても、ゼロショットで強力な汎化能力を保持
NeRFや3Dモデル生成にも応用可能
生成した画像に対してZero-1-to-3
https://gyazo.com/cca37178ed87b9e1ed64868ea90774a7
22GBのVRAMがあればローカルでも動かせるよ()
無理だわ!wogikaze.iconRTX4090 24GBか!?
これが低VRAMで動くようになればControlNetに続いてワークフローに革命が起きそうnomadoor.icon
#トヨタ・リサーチ・インスティテュート
これトヨタなんかよwふざけた名前に騙されたwwogikaze.icon
@_akhaliq: Zero-1-to-3: Zero-shot One Image to 3D Object
github: https://t.co/2QCZ1apGdv
demo: https://t.co/Z92zQae2Zn
learn to control the camera perspective in large-scale diffusion models, enabling zero-shot novel view synthesis and 3D reconstruction from a single image