Modèles locaux
Modèles locaux
Section intitulée « Modèles locaux »Le mode local est possible, mais OpenClaw nécessite un contexte volumineux + de solides défenses contre l’injection de prompts. Les petites cartes tronquent le contexte et compromettent la sécurité. Visez haut : ≥2 Mac Studios maximisés ou une configuration GPU équivalente (~30k $+). Un seul GPU de 24 Go ne fonctionne que pour les prompts plus légers avec une latence plus élevée. Utilisez la variante de modèle la plus grande / en taille réelle que vous pouvez faire tourner ; les points de contrôle agressivement quantifiés ou « petits » augmentent le risque d’injection de prompts (voir Sécurité).
Si vous souhaitez la configuration locale la plus simple, commencez avec Ollama et openclaw onboard. Cette page est le guide orienté pour des stacks locales haut de gamme et des serveurs locaux compatibles OpenAI personnalisés.
Recommandé : LM Studio + grand modèle local (API Responses)
Section intitulée « Recommandé : LM Studio + grand modèle local (API Responses) »Meilleure stack locale actuelle. Chargez un grand modèle dans LM Studio (par exemple, une version complète de Qwen, DeepSeek ou Llama), activez le serveur local (par défaut http://127.0.0.1:1234) et utilisez l’API Responses pour garder le raisonnement séparé du texte final.
{ agents: { defaults: { model: { primary: “lmstudio/my-local-model” }, models: { “anthropic/claude-opus-4-6”: { alias: “Opus” }, “lmstudio/my-local-model”: { alias: “Local” }, }, }, }, models: { mode: “merge”, providers: { lmstudio: { baseUrl: “http://127.0.0.1:1234/v1”, apiKey: “lmstudio”, api: “openai-responses”, models: [ { id: “my-local-model”, name: “Local Model”, reasoning: false, input: [“text”], cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }, contextWindow: 196608, maxTokens: 8192, }, ], }, }, },}Liste de contrôle de la configuration
- Installez LM Studio : https://lmstudio.ai
- Dans LM Studio, téléchargez la plus grande version de modèle disponible (évitez les variantes « petites »/fortement quantifiées), démarrez le serveur, confirmez que
http://127.0.0.1:1234/v1/modelsle liste. - Remplacez
my-local-modelpar l’ID réel du modèle affiché dans LM Studio. - Gardez le modèle chargé ; le chargement à froid (cold-load) ajoute une latence de démarrage.
- Ajustez
contextWindow/maxTokenssi votre version de LM Studio diffère. - Pour WhatsApp, restez sur l’API Responses afin que seul le texte final soit envoyé.
Gardez les modèles hébergés configurés même lors de l’exécution en local ; utilisez models.mode: "merge" pour que les secours (fallbacks) restent disponibles.
Configuration hybride : hébergement principal, secours local
Section intitulée « Configuration hybride : hébergement principal, secours local »{ agents: { defaults: { model: { primary: "anthropic/claude-sonnet-4-6", fallbacks: ["lmstudio/my-local-model", "anthropic/claude-opus-4-6"], }, models: { "anthropic/claude-sonnet-4-6": { alias: "Sonnet" }, "lmstudio/my-local-model": { alias: "Local" }, "anthropic/claude-opus-4-6": { alias: "Opus" }, }, }, }, models: { mode: "merge", providers: { lmstudio: { baseUrl: "http://127.0.0.1:1234/v1", apiKey: "lmstudio", api: "openai-responses", models: [ { id: "my-local-model", name: "Local Model", reasoning: false, input: ["text"], cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }, contextWindow: 196608, maxTokens: 8192, }, ], }, }, },}Priorité locale avec filet de sécurité hébergé
Section intitulée « Priorité locale avec filet de sécurité hébergé »Inversez l’ordre principal et de secours ; gardez le même bloc fournisseurs et models.mode: "merge" afin de pouvoir revenir à Sonnet ou Opus lorsque la boîte locale est hors ligne.
Hébergement régional / routage des données
Section intitulée « Hébergement régional / routage des données »- Des variantes hébergées de MiniMax/Kimi/GLM existent également sur OpenRouter avec des points de terminaison épinglés par région (par exemple, hébergés aux États-Unis). Choisissez la variante régionale là-bas pour garder le trafic dans votre juridiction choisie tout en utilisant
models.mode: "merge"pour les secours Anthropic/OpenAI. - Le mode uniquement local reste la voie la plus sûre pour la confidentialité ; le routage régional hébergé est un compromis lorsque vous avez besoin des fonctionnalités du fournisseur mais que vous souhaitez contrôler le flux des données.
Autres proxys locaux compatibles avec OpenAI
Section intitulée « Autres proxys locaux compatibles avec OpenAI »vLLM, LiteLLM, OAI-proxy, ou des passerelles personnalisées fonctionnent s’ils exposent un point de terminaison /v1 de style OpenAI. Remplacez le bloc fournisseur ci-dessus par votre point de terminaison et votre ID de modèle :
{ models: { mode: "merge", providers: { local: { baseUrl: "http://127.0.0.1:8000/v1", apiKey: "sk-local", api: "openai-responses", models: [ { id: "my-local-model", name: "Local Model", reasoning: false, input: ["text"], cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }, contextWindow: 120000, maxTokens: 8192, }, ], }, }, },}Gardez models.mode: "merge" pour que les modèles hébergés restent disponibles en tant que solutions de repli.
Dépannage
Section intitulée « Dépannage »- Gateway peut-il atteindre le proxy ?
curl http://127.0.0.1:1234/v1/models. - Modèle LM Studio déchargé ? Rechargez-le ; le démarrage à froid est une cause fréquente de « blocage ».
- Erreurs de contexte ? Abaissez
contextWindowou augmentez la limite de votre serveur. - Sécurité : les modèles locaux ignorent les filtres côté fournisseur ; gardez les agents étroits et la compaction activée pour limiter le rayon d’impact de l’injection de prompt.