Annuaire des fournisseurs
Fournisseurs de modèles
Section intitulée « Fournisseurs de modèles »OpenClaw peut utiliser de nombreux fournisseurs de LLM. Choisissez un fournisseur, authentifiez-vous, puis définissez le modèle par défaut comme provider/model.
Vous recherchez de la documentation sur les canaux de chat (WhatsApp/Telegram/Discord/Slack/Mattermost (plugin)/etc.) ? Voir Canaux.
Démarrage rapide
Section intitulée « Démarrage rapide »- Authentifiez-vous auprès du fournisseur (généralement via
openclaw onboard). - Définir le modèle par défaut :
{ agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },}Documentation des fournisseurs
Section intitulée « Documentation des fournisseurs »- Amazon Bedrock
- Anthropic (API + Claude Code CLI)
- Cloudflare AI Gateway
- DeepSeek
- GitHub Copilot
- modèles GLM
- Google (Gemini)
- Groq (inférence LPU)
- Hugging Face (Inférence)
- Kilocode
- LiteLLM (passelle unifiée)
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- NVIDIA
- Ollama (cloud + modèles locaux)
- OpenAI (API + Codex)
- OpenCode
- OpenCode Go
- OpenRouter
- Perplexity (recherche web)
- Qianfan
- Qwen / Model Studio (Alibaba Cloud)
- SGLang (modèles locaux)
- Synthétique
- Together AI
- Venice (Venice IA, axé sur la confidentialité)
- Vercel AI Gateway
- vLLM (modèles locaux)
- Volcengine (Doubao)
- xAI
- Xiaomi
- Z.AI
Fournisseurs de transcription
Section intitulée « Fournisseurs de transcription »Outils communautaires
Section intitulée « Outils communautaires »- Claude Max API Proxy - Proxy communautaire pour les identifiants d’abonnement Claude (vérifiez la politique/les conditions d’utilisation d’Anthropic avant utilisation)
Pour le catalogue complet de providers (xAI, Groq, Mistral, etc.) et la configuration avancée, voyez Model providers.