LiteLLM
LiteLLM est une passerelle LLM open source qui fournit une API unifiée à plus de 100 fournisseurs de modèles. Acheminez OpenClaw via LiteLLM pour bénéficier d’un centralisé suivi des coûts, de la journalisation, et de la flexibilité de changer de backend sans modifier votre configuration OpenClaw.
Pourquoi utiliser LiteLLM avec OpenClaw ?
Section intitulée « Pourquoi utiliser LiteLLM avec OpenClaw ? »- Suivi des coûts — Voyez exactement ce que OpenClaw dépense pour tous les modèles
- Acheminement de modèle — Basculez entre Claude, GPT-4, Gemini, Bedrock sans modifier la configuration
- Clés virtuelles — Créez des clés avec des limites de dépenses pour OpenClaw
- Journalisation — Journaux complets des requêtes/réponses pour le débogage
- Basculades — Bascule automatique si votre fournisseur principal est en panne
Démarrage rapide
Section intitulée « Démarrage rapide »Via l’intégration
Section intitulée « Via l’intégration »openclaw onboard --auth-choice litellm-api-keyConfiguration manuelle
Section intitulée « Configuration manuelle »- Démarrer le proxy LiteLLM :
pip install 'litellm[proxy]'litellm --model claude-opus-4-6- Pointer OpenClaw vers LiteLLM :
export LITELLM_API_KEY="your-litellm-key"
openclawC’est tout. OpenClaw est désormais acheminé via LiteLLM.
Configuration
Section intitulée « Configuration »Variables d’environnement
Section intitulée « Variables d’environnement »export LITELLM_API_KEY="sk-litellm-key"Fichier de configuration
Section intitulée « Fichier de configuration »{ models: { providers: { litellm: { baseUrl: "http://localhost:4000", apiKey: "${LITELLM_API_KEY}", api: "openai-completions", models: [ { id: "claude-opus-4-6", name: "Claude Opus 4.6", reasoning: true, input: ["text", "image"], contextWindow: 200000, maxTokens: 64000, }, { id: "gpt-4o", name: "GPT-4o", reasoning: false, input: ["text", "image"], contextWindow: 128000, maxTokens: 8192, }, ], }, }, }, agents: { defaults: { model: { primary: "litellm/claude-opus-4-6" }, }, },}Clés virtuelles
Section intitulée « Clés virtuelles »Créer une clé dédiée pour OpenClaw avec des limites de dépenses :
curl -X POST "http://localhost:4000/key/generate" \ -H "Authorization: Bearer $LITELLM_MASTER_KEY" \ -H "Content-Type: application/json" \ -d '{ "key_alias": "openclaw", "max_budget": 50.00, "budget_duration": "monthly" }'Utilisez la clé générée comme LITELLM_API_KEY.
Acheminement de modèle
Section intitulée « Acheminement de modèle »LiteLLM peut acheminer les demandes de modèle vers différents backends. Configurez-les dans votre config.yaml LiteLLM :
model_list: - model_name: claude-opus-4-6 litellm_params: model: claude-opus-4-6 api_key: os.environ/ANTHROPIC_API_KEY
- model_name: gpt-4o litellm_params: model: gpt-4o api_key: os.environ/OPENAI_API_KEYOpenClaw continue de demander claude-opus-4-6 — LiteLLM gère l’acheminement.
Affichage de l’utilisation
Section intitulée « Affichage de l’utilisation »Vérifiez le tableau de bord ou l’API de LiteLLM :
# Key infocurl "http://localhost:4000/key/info" \ -H "Authorization: Bearer sk-litellm-key"
# Spend logscurl "http://localhost:4000/spend/logs" \ -H "Authorization: Bearer $LITELLM_MASTER_KEY"- LiteLLM s’exécute sur
http://localhost:4000par défaut - OpenClaw se connecte via le point de terminaison
/v1/chat/completionscompatible OpenAI - Toutes les fonctionnalités de OpenClaw fonctionnent via LiteLLM — aucune limitation