Aller au contenu

LiteLLM

LiteLLM est une passerelle LLM open source qui fournit une API unifiée à plus de 100 fournisseurs de modèles. Acheminez OpenClaw via LiteLLM pour bénéficier d’un centralisé suivi des coûts, de la journalisation, et de la flexibilité de changer de backend sans modifier votre configuration OpenClaw.

  • Suivi des coûts — Voyez exactement ce que OpenClaw dépense pour tous les modèles
  • Acheminement de modèle — Basculez entre Claude, GPT-4, Gemini, Bedrock sans modifier la configuration
  • Clés virtuelles — Créez des clés avec des limites de dépenses pour OpenClaw
  • Journalisation — Journaux complets des requêtes/réponses pour le débogage
  • Basculades — Bascule automatique si votre fournisseur principal est en panne
Fenêtre de terminal
openclaw onboard --auth-choice litellm-api-key
  1. Démarrer le proxy LiteLLM :
Fenêtre de terminal
pip install 'litellm[proxy]'
litellm --model claude-opus-4-6
  1. Pointer OpenClaw vers LiteLLM :
Fenêtre de terminal
export LITELLM_API_KEY="your-litellm-key"
openclaw

C’est tout. OpenClaw est désormais acheminé via LiteLLM.

Fenêtre de terminal
export LITELLM_API_KEY="sk-litellm-key"
{
models: {
providers: {
litellm: {
baseUrl: "http://localhost:4000",
apiKey: "${LITELLM_API_KEY}",
api: "openai-completions",
models: [
{
id: "claude-opus-4-6",
name: "Claude Opus 4.6",
reasoning: true,
input: ["text", "image"],
contextWindow: 200000,
maxTokens: 64000,
},
{
id: "gpt-4o",
name: "GPT-4o",
reasoning: false,
input: ["text", "image"],
contextWindow: 128000,
maxTokens: 8192,
},
],
},
},
},
agents: {
defaults: {
model: { primary: "litellm/claude-opus-4-6" },
},
},
}

Créer une clé dédiée pour OpenClaw avec des limites de dépenses :

Fenêtre de terminal
curl -X POST "http://localhost:4000/key/generate" \
-H "Authorization: Bearer $LITELLM_MASTER_KEY" \
-H "Content-Type: application/json" \
-d '{
"key_alias": "openclaw",
"max_budget": 50.00,
"budget_duration": "monthly"
}'

Utilisez la clé générée comme LITELLM_API_KEY.

LiteLLM peut acheminer les demandes de modèle vers différents backends. Configurez-les dans votre config.yaml LiteLLM :

model_list:
- model_name: claude-opus-4-6
litellm_params:
model: claude-opus-4-6
api_key: os.environ/ANTHROPIC_API_KEY
- model_name: gpt-4o
litellm_params:
model: gpt-4o
api_key: os.environ/OPENAI_API_KEY

OpenClaw continue de demander claude-opus-4-6 — LiteLLM gère l’acheminement.

Vérifiez le tableau de bord ou l’API de LiteLLM :

Fenêtre de terminal
# Key info
curl "http://localhost:4000/key/info" \
-H "Authorization: Bearer sk-litellm-key"
# Spend logs
curl "http://localhost:4000/spend/logs" \
-H "Authorization: Bearer $LITELLM_MASTER_KEY"
  • LiteLLM s’exécute sur http://localhost:4000 par défaut
  • OpenClaw se connecte via le point de terminaison /v1/chat/completions compatible OpenAI
  • Toutes les fonctionnalités de OpenClaw fonctionnent via LiteLLM — aucune limitation