OpenAI_API
事実上のllm serverのデファクトスタンダードと化しているので実際のところ
OpenAI
のモデル以外でも(特にローカルでllmを動かすサーバ等では)大抵対応している。
例としては
llama.cpp
、
Ollama
、
LM Studio
等が対応している。
機能は限定されるが
Gemini
も対応している。
一応
Claude
も対応
https://docs.claude.com/ja/api/openai-sdk
ただこちらは本当にテスト・モック用であまり使って欲しくなさそうな空気感の書き方