Aller au contenu

Groq

Groq fournit une inférence ultra-rapide sur des modèles open source (Llama, Gemma, Mistral, et plus) grâce à un matériel LPU personnalisé. OpenClaw se connecte à Groq via son API compatible OpenAI.

  • Provider : groq
  • Auth : GROQ_API_KEY
  • API : compatible OpenAI
  1. Obtenez une clé API sur console.groq.com/keys.

  2. Définissez la clé API :

Fenêtre de terminal
export GROQ_API_KEY="gsk_..."
  1. Définir un modèle par défaut :
{
agents: {
defaults: {
model: { primary: "groq/llama-3.3-70b-versatile" },
},
},
}
{
env: { GROQ_API_KEY: "gsk_..." },
agents: {
defaults: {
model: { primary: "groq/llama-3.3-70b-versatile" },
},
},
}

Groq fournit également une transcription audio rapide basée sur Whisper. Lorsqu’il est configuré en tant que fournisseur de compréhension des médias, OpenClaw utilise le modèle whisper-large-v3-turbo de Groq pour transcrire les messages vocaux.

{
media: {
understanding: {
audio: {
models: [{ provider: "groq" }],
},
},
},
}

Si le Gateway s’exécute en tant que démon (launchd/systemd), assurez-vous que GROQ_API_KEY est accessible pour ce processus (par exemple, dans ~/.openclaw/.env ou via env.shellEnv).

Le catalogue de modèles de Groq change fréquemment. Exécutez openclaw models list | grep groq pour voir les modèles actuellement disponibles, ou consultez console.groq.com/docs/models.

Les choix populaires incluent :

  • Llama 3.3 70B Versatile - polyvalent, grand contexte
  • Llama 3.1 8B Instant - rapide, léger
  • Gemma 2 9B - compact, efficace
  • Mixtral 8x7B - architecture MoE, raisonnement solide