Ir al contenido

Groq

Groq ofrece inferencia ultra rápida en modelos de código abierto (Llama, Gemma, Mistral y más) utilizando hardware LPU personalizado. OpenClaw se conecta a Groq a través de su API compatible con OpenAI.

  • Proveedor: groq
  • Autenticación: GROQ_API_KEY
  • API: Compatible con OpenAI
  1. Obtenga una clave de API desde console.groq.com/keys.

  2. Configure la clave de API:

Ventana de terminal
export GROQ_API_KEY="gsk_..."
  1. Configure un modelo predeterminado:
{
agents: {
defaults: {
model: { primary: "groq/llama-3.3-70b-versatile" },
},
},
}
{
env: { GROQ_API_KEY: "gsk_..." },
agents: {
defaults: {
model: { primary: "groq/llama-3.3-70b-versatile" },
},
},
}

Groq también ofrece una transcripción de audio rápida basada en Whisper. Cuando se configura como un proveedor de comprensión de medios, OpenClaw utiliza el modelo whisper-large-v3-turbo de Groq para transcribir mensajes de voz.

{
media: {
understanding: {
audio: {
models: [{ provider: "groq" }],
},
},
},
}

Si la Gateway se ejecuta como un demonio (launchd/systemd), asegúrese de que GROQ_API_KEY esté disponible para ese proceso (por ejemplo, en ~/.openclaw/.env o a través de env.shellEnv).

El catálogo de modelos de Groq cambia con frecuencia. Ejecute openclaw models list | grep groq para ver los modelos disponibles actualmente, o consulte console.groq.com/docs/models.

Las opciones populares incluyen:

  • Llama 3.3 70B Versátil - uso general, contexto grande
  • Llama 3.1 8B Instant - rápido, ligero
  • Gemma 2 9B - compacto, eficiente
  • Mixtral 8x7B - arquitectura MoE, razonamiento fuerte