VRAM
GPUにのっているRAM
https://www.nvidia.com/ja-jp/studio/compare-gpus/ から確認できる
グラフィックスメモリ=VRAM
table:_
Product GPU RAM (GB)
GeForce RTX 4090 24
GeForce RTX 4080 16
GeForce RTX 4070 Ti 12
GeForce RTX 3090 24
GeForce RTX 3080Ti 12
GeForce RTX 3080 10
GeForce RTX 3070 8
GeForce RTX 3060 Ti 8
GeForce RTX 3060 12
生成AIにおいては処理速度よりもVRAMの値のほうが重要
4GB
あらゆる手を尽くせばStable Diffusionが動く
6GB
Stable Diffusionが動かせる最低ライン
8GB
512×512の画像を安定して生成できるようになる
12GB
巷で人権ありといわれているのがこのライン
768×768の画像を安定して生成できるようになる
DreamBoothが使えるようになる
16GB
RTX 4060Tiの一部モデルやRTX 4070 Ti SUPERなど、40XX番台では割と限定的
RTX 50XX番台では割と増えそうなカテゴリ
1024×1024の画像を安定して生成できるようになる(Stable Diffusion web UIでも、の話。)
ローカルなLLMを使う場合の最低ラインとも
24GB
神
画像生成においてはFluxなどの大型モデルもある程度正面からLora学習が可能になる
基本的に新モデルはこのVRAMをベースラインに最適化されるため早い段階で学習まで手を出したいならほしい容量。
最近ではLLMも動かせるとか…?
ただしLLMの世界においてはこれでも最低ラインよりはマシな程度…猛者たちは4090を複数挿したりする、コワイ
とはいえ7bなどモデルサイズを選べばLLMも普通に動かしたりできるので…ローカルLLMコワクナイヨ
32GB
RTX 5090によって新設される予定のカテゴリ
基本的にLLMの世界に首をつっこない限りはオーバースペック
ただ、動画生成などVRAM要求が上がる用途は日々増えつつある、最新技術にいち早く追従したいなら神すら超える力が必要となるのだ…
複数挿しの世界へようこそ❤
真面目な話、32GBより上の世界…青天井なLLMの世界に本気で首を突っ込むつもりなら腹くくってNVIDIA Project DIGITSでも狙うほうが良いかもしれない…これでも(相対的に)安い時期の4090複数枚よりは遥かに安いので……
(40GB)
(80GB)
ソース:
Bing との会話 2023/2/28(1) 幅広い製品ラインナップによる高性能 GPU の比較 - NVIDIA. https://www.nvidia.com/ja-jp/studio/compare-gpus/ アクセス日時 2023/2/28.
(2) The Ultimate GeForce GPU Comparison - NVIDIA. https://www.nvidia.com/en-gb/geforce/graphics-cards/compare/ アクセス日時 2023/2/28.
(3) List of Nvidia graphics processing units - Wikipedia. https://en.wikipedia.org/wiki/List_of_Nvidia_graphics_processing_units アクセス日時 2023/2/28.