Open Interpreter
https://user-images.githubusercontent.com/63927363/264166941-37152071-680d-4423-9af3-64836a6f7b60.mp4
https://github.com/KillianLucas/open-interpreterKillianLucas/open-interpreter
https://docs.openinterpreter.com/introductionDoc
https://openinterpreter.com/HP/デスクトップアプリへの早期アクセス
Code interpreterをオープンソースで再現
ファイルをアップロードしないといけないCode Interpreterと違ってPC内のアプリやらファイルを直接扱えるのでまだ見ぬWindows Copilotにも近いのかもしれないnomadoor.icon
OpenAI APIのかわりにローカルでCode Llamaを動かして使うこともできる
Hugging Faceから好きなモデルをダウンロードして使うことができるようになったhttps://github.com/KillianLucas/open-interpreter/pull/213
使う
$ pip install open-interpreter
$ interpreter
WindowsでCode Llamaを使うhttps://github.com/KillianLucas/open-interpreter/blob/main/WINDOWS.md
Visual Studio 2022のインストール
https://visualstudio.microsoft.com/ja/downloads/
Desktop development for C++ workloadを選択してインストール
llama-cpp-pythonとopen-interpreterのインストール
$ pip install llama-cpp-python --force-reinstall --upgrade --no-cache-dir
$ pip install open-interpreter
(ちなみに)モデルの保存場所
$ path\to\AppData\Local\Open Interpreter\Open Interpreter\models
+α 処理にNvidia GPUを使うhttps://github.com/KillianLucas/open-interpreter/blob/main/GPU.md
以下PowerShellでのコマンド
最新(12.2)のCUDA Toolkitをインストール
CUDA Toolkit 12.2 Update 2 Downloads
インストールできたか確認
$ $env:CUDA_PATH
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.2が表示されれば成功
Nvidia GPU版llama-cpp-pythonをインストール
$ $env:FORCE_CMAKE=1; $env:CMAKE_ARGS='-DLLAMA_CUBLAS=on'
$ pip install llama-cpp-python --force-reinstall --upgrade --no-cache-dir -vv
インストールできたか確認
$ python -c "from llama_cpp import GGML_USE_CUBLAS; print(GGML_USE_CUBLAS)"
code:Powershell(cmd)
ggml_init_cublas: found 1 CUDA devices:
Device 0: NVIDIA GeForce RTX 3080, compute capability 8.6
True
が表示されれば成功
実行
$ interpreter --local -y