QLoRA
https://github.com/artidoro/qlora
|
Paper
|
Adapter Weights
|
Demo
|
QLoRA凄そう!
https://t.co/Fi8lVqzkQu
4ビット量子化でメモリ使用量削減でLLaMA 65Bを単一GPUの48GB VRAMで微調整でき
Guanaco
33Bと65BがChatGPTに勝つるw
グアナコ13BでもBardに優り
7B/13BならColabで動くだと🫢
LLaMA 65Bを16-bitで微調整にはVRAM780GB必要だった
https://t.co/23MuSYE3I7
forasteran
https://gyazo.com/21c069f76d3da69c3a1052cc7f1e17ca
#LoRA