https://localai.io/言い換えると、[LLM(大規模言語モデル)]が動くバックエンドの[OpenAI API]準拠の[REST API]サーバーを[Docker]で立てられるアプリケーション執筆時点でOpenAI APIは触ったことがないがとりあえず[phi-2]、[llava]、[bert-cpp]あたりを試してみた[curl(1)]と[jq]を使ってAPIを叩く。`./easy-client.py | curl http://localhost:8080/v1/chat/completions -H "Content-Type: application/json" -d @- | jq -r '.choices[0].message.content?'`