Ollama
https://ollama.com/public/ollama.png
インストール
% brew install --cask ollama
実行 (初回だけダウンロード)
% ollama run gemma2:2b
% ollama run codellama
Note
You should have at least 8 GB of RAM available to run the 7B models, 16 GB to run the 13B models, and 32 GB to run the 33B models.
Ollama Python Library
Open WebUI (Formerly Ollama WebUI)
Ollamaで体験する国産LLM入門