Directorio de proveedores
Proveedores de modelos
Sección titulada «Proveedores de modelos»OpenClaw puede utilizar muchos proveedores de LLM. Elija un proveedor, autentíquese y luego establezca el modelo predeterminado como provider/model.
¿Busca documentación sobre canales de chat (WhatsApp/Telegram/Discord/Slack/Mattermost (complemento)/etc.)? Consulte Canales.
Inicio rápido
Sección titulada «Inicio rápido»- Autentíquese con el proveedor (generalmente a través de
openclaw onboard). - Establezca el modelo predeterminado:
{ agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },}Documentación de proveedores
Sección titulada «Documentación de proveedores»- Amazon Bedrock
- Anthropic (API + Claude Code CLI)
- Cloudflare AI Gateway
- DeepSeek
- GitHub Copilot
- Modelos GLM
- Google (Gemini)
- Groq (inferencia LPU)
- Hugging Face (Inferencia)
- Kilocode
- LiteLLM (puerta de enlace unificada)
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- NVIDIA
- Ollama (modelos en la nube + locales)
- OpenAI (API + Codex)
- OpenCode
- OpenCode Go
- OpenRouter
- Perplexity (búsqueda web)
- Qianfan
- Qwen / Model Studio (Alibaba Cloud)
- SGLang (modelos locales)
- Synthetic
- Together AI
- Venice (Venice AI, centrado en la privacidad)
- Vercel AI Gateway
- vLLM (modelos locales)
- Volcengine (Doubao)
- xAI
- Xiaomi
- Z.AI
Proveedores de transcripción
Sección titulada «Proveedores de transcripción»Herramientas comunitarias
Sección titulada «Herramientas comunitarias»- Claude Max API Proxy - Proxy comunitario para credenciales de suscripción a Claude (verifique la política/términos de Anthropic antes de usar)
Para el catálogo completo de proveedores (xAI, Groq, Mistral, etc.) y la configuración avanzada, consulte Proveedores de modelos.