Groq Cloudを使ってみた
Groqって何?
クラウドでのAPI提供を行っている
既存のモデルをすぐに使いたいときや無料で使いたいときにおすすめ
https://groq.com/
ここからアカウント登録→APIキー取得まで5分ぐらいで行える
設定方法
code:connect
import os
import openai
client = openai.OpenAI(
base_url="https://api.groq.com/openai/v1",
api_key=os.environ.get("API_KEY")
)
table:使えるAIモデル
モデル名 開発元 CONTEXT WINDOW (TOKENS) MAX COMPLETION TOKENS MAX FILE SIZE
llama-3.1-8b-instant Meta 131,072 131,072 -
llama-3.3-70b-versatile Meta 131,072 32,768 -
meta-llama/llama-guard-4-12b Meta 131,072 1,024 20 MB
openai/gpt-oss-120b OpenAI 131,072 65,536 -
openai/gpt-oss-20b OpenAI 131,072 65,536 -
whisper-large-v3 OpenAI - - 100 MB
whisper-large-v3-turbo OpenAI - - 100 MB
詳細が見たい人は次のリンクから確認してみてください。
https://console.groq.com/docs/models
それぞれのモデル毎にリクエスト数の制限が異なるので確認が必要
https://console.groq.com/docs/rate-limits ←これで確認できます
#Shun_Yamaguchi