Ollama
Ollama est un runtime LLM local qui facilite l’exécution de modèles open-source sur votre machine. OpenClaw s’intègre à l’Ollama native de API (/api/chat), prend en charge le streaming et l’appel d’outils, et peut découvrir automatiquement les modèles Ollama locaux lorsque vous activez l’option avec OLLAMA_API_KEY (ou un profil d’authentification) et que vous ne définissez pas d’entrée models.providers.ollama explicite.
Quick start
Section intitulée « Quick start »Onboarding (recommandé)
Section intitulée « Onboarding (recommandé) »Le moyen le plus rapide de configurer Ollama passe par l’onboarding :
openclaw onboardSélectionnez Ollama dans la liste des providers. L’onboarding va :
- Demander l’URL de base de Ollama où votre instance peut être atteinte (par défaut
http://127.0.0.1:11434). - Vous laisser choisir Cloud + Local (modèles cloud et modèles locaux) ou Local (modèles locaux uniquement).
- Ouvrir un flux de connexion dans le navigateur si vous choisissez Cloud + Local et que vous n’êtes pas connecté à ollama.com.
- Découvrir les modèles disponibles et suggérer les valeurs par défaut.
- Tirer automatiquement le modèle sélectionné s’il n’est pas disponible localement.
Le mode non interactif est également pris en charge :
openclaw onboard --non-interactive \ --auth-choice ollama \ --accept-riskSpécifiez éventuellement une URL de base personnalisée ou un modèle :
openclaw onboard --non-interactive \ --auth-choice ollama \ --custom-base-url "http://ollama-host:11434" \ --custom-model-id "qwen3.5:27b" \ --accept-riskConfiguration manuelle
Section intitulée « Configuration manuelle »-
Installez Ollama : https://ollama.com/download
-
Tirez un modèle local si vous souhaitez une inférence locale :
ollama pull glm-4.7-flash# orollama pull gpt-oss:20b# orollama pull llama3.3- Si vous souhaitez également des modèles cloud, connectez-vous :
ollama signin- Lancez l’intégration et choisissez
Ollama:
openclaw onboardLocal: modèles locaux uniquementCloud + Local: modèles locaux plus modèles cloud- Les modèles cloud tels que
kimi-k2.5:cloud,minimax-m2.5:cloudetglm-5:cloudne nécessitent pas deollama pulllocal
OpenClaw suggère actuellement :
- défaut local :
glm-4.7-flash - défauts cloud :
kimi-k2.5:cloud,minimax-m2.5:cloud,glm-5:cloud
- Si vous préférez une configuration manuelle, activez Ollama pour OpenClaw directement (n’importe quelle valeur fonctionne ; Ollama ne nécessite pas de vraie clé) :
# Set environment variableexport OLLAMA_API_KEY="ollama-local"
# Or configure in your config fileopenclaw config set models.providers.ollama.apiKey "ollama-local"- Inspecter ou changer de modèles :
openclaw models listopenclaw models set ollama/glm-4.7-flash- Ou définir la valeur par défaut dans la configuration :
{ agents: { defaults: { model: { primary: "ollama/glm-4.7-flash" }, }, },}Découverte de modèles (provider implicite)
Section intitulée « Découverte de modèles (provider implicite) »Lorsque vous définissez OLLAMA_API_KEY (ou un profil d’authentification) et que vous ne définissez pas models.providers.ollama, OpenClaw découvre les modèles depuis l’instance locale Ollama à http://127.0.0.1:11434 :
- Interroge
/api/tags - Utilise des recherches
/api/showau mieux pour lirecontextWindowlorsque disponible - Marque
reasoningavec une heuristique de nom de modèle (r1,reasoning,think) - Définit
maxTokensà la limite maximale de jetons par défaut Ollama utilisée par OpenClaw - Définit tous les coûts à
0
Cela évite les entrées de modèle manuelles tout en gardant le catalogue aligné avec l’instance locale Ollama.
Pour voir quels modèles sont disponibles :
ollama listopenclaw models listPour ajouter un nouveau modèle, il suffit de le tirer avec Ollama :
ollama pull mistralLe nouveau modèle sera découvert automatiquement et disponible à l’utilisation.
Si vous définissez models.providers.ollama explicitement, la découverte automatique est ignorée et vous devez définir les modèles manuellement (voir ci-dessous).
Configuration
Section intitulée « Configuration »Configuration de base (découverte implicite)
Section intitulée « Configuration de base (découverte implicite) »Le moyen le plus simple d’activer Ollama est via une variable d’environnement :
export OLLAMA_API_KEY="ollama-local"Configuration explicite (modèles manuels)
Section intitulée « Configuration explicite (modèles manuels) »Utilisez une configuration explicite lorsque :
- Ollama s’exécute sur un autre hôte/port.
- Vous voulez forcer des fenêtres de contexte ou des listes de modèles spécifiques.
- Vous voulez des définitions de modèles entièrement manuelles.
{ models: { providers: { ollama: { baseUrl: "http://ollama-host:11434", apiKey: "ollama-local", api: "ollama", models: [ { id: "gpt-oss:20b", name: "GPT-OSS 20B", reasoning: false, input: ["text"], cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }, contextWindow: 8192, maxTokens: 8192 * 10 } ] } } }}Si OLLAMA_API_KEY est défini, vous pouvez omettre apiKey dans l’entrée du fournisseur et OpenClaw le remplira pour les vérifications de disponibilité.
URL de base personnalisée (configuration explicite)
Section intitulée « URL de base personnalisée (configuration explicite) »Si Ollama s’exécute sur un hôte ou un port différent (la configuration explicite désactive la découverte automatique, définissez donc les modèles manuellement) :
{ models: { providers: { ollama: { apiKey: "ollama-local", baseUrl: "http://ollama-host:11434", // No /v1 - use native Ollama API URL api: "ollama", // Set explicitly to guarantee native tool-calling behavior }, }, },}Sélection du modèle
Section intitulée « Sélection du modèle »Une fois configuré, tous vos modèles Ollama sont disponibles :
{ agents: { defaults: { model: { primary: "ollama/gpt-oss:20b", fallbacks: ["ollama/llama3.3", "ollama/qwen2.5-coder:32b"], }, }, },}Modèles cloud
Section intitulée « Modèles cloud »Les modèles cloud vous permettent d’exécuter des modèles hébergés dans le cloud (par exemple kimi-k2.5:cloud, minimax-m2.5:cloud, glm-5:cloud) aux côtés de vos modèles locaux.
Pour utiliser des modèles cloud, sélectionnez le mode Cloud + Local lors de la configuration. L’assistant vérifie si vous êtes connecté et ouvre un flux de connexion dans le navigateur si nécessaire. Si l’authentification ne peut pas être vérifiée, l’assistant revient aux paramètres par défaut des modèles locaux.
Vous pouvez également vous connecter directement à ollama.com/signin.
Modèles de raisonnement
Section intitulée « Modèles de raisonnement »OpenClaw considère par défaut les modèles portant des noms tels que deepseek-r1, reasoning ou think comme capables de raisonnement :
ollama pull deepseek-r1:32bCoûts des modèles
Section intitulée « Coûts des modèles »Ollama est gratuit et fonctionne localement, tous les coûts des modèles sont donc fixés à 0 $.
Configuration du streaming
Section intitulée « Configuration du streaming »L’intégration OpenClaw de Ollama utilise l’Ollama API native (/api/chat) par défaut, ce qui prend entièrement en charge le streaming et l’appel d’outils simultanément. Aucune configuration spéciale n’est nécessaire.
Mode compatible hérité OpenAI
Section intitulée « Mode compatible hérité OpenAI »Si vous devez utiliser le point de terminaison compatible OpenAI à la place (par exemple, derrière un proxy qui ne prend en charge que le format OpenAI), définissez api: "openai-completions" explicitement :
{ models: { providers: { ollama: { baseUrl: "http://ollama-host:11434/v1", api: "openai-completions", injectNumCtxForOpenAICompat: true, // default: true apiKey: "ollama-local", models: [...] } } }}Ce mode peut ne pas prendre en charge simultanément le streaming et l’appel d’outils. Vous devrez peut-être désactiver le streaming avec params: { streaming: false } dans la configuration du modèle.
Lorsque api: "openai-completions" est utilisé avec Ollama, OpenClaw injecte options.num_ctx par défaut pour éviter que Ollama ne revienne silencieusement à une fenêtre de contexte de 4096. Si votre proxy ou votre serveur amont rejette les champs options inconnus, désactivez ce comportement :
{ models: { providers: { ollama: { baseUrl: "http://ollama-host:11434/v1", api: "openai-completions", injectNumCtxForOpenAICompat: false, apiKey: "ollama-local", models: [...] } } }}Fenêtres de contexte
Section intitulée « Fenêtres de contexte »Pour les modèles découverts automatiquement, OpenClaw utilise la fenêtre de contexte signalée par Ollama si elle est disponible, sinon elle revient à la fenêtre de contexte Ollama par défaut utilisée par OpenClaw. Vous pouvez remplacer contextWindow et maxTokens dans la configuration explicite du fournisseur.
Dépannage
Section intitulée « Dépannage »Ollama non détecté
Section intitulée « Ollama non détecté »Assurez-vous que Ollama est en cours d’exécution, que vous avez défini OLLAMA_API_KEY (ou un profil d’authentification), et que vous n’avez pas défini d’entrée explicite models.providers.ollama :
ollama serveEt que l’API est accessible :
curl http://localhost:11434/api/tagsAucun modèle disponible
Section intitulée « Aucun modèle disponible »Si votre modèle n’est pas répertorié, soit :
- Tirez le modèle localement, ou
- Définissez le modèle explicitement dans
models.providers.ollama.
Pour ajouter des modèles :
ollama list # See what's installedollama pull glm-4.7-flashollama pull gpt-oss:20bollama pull llama3.3 # Or another modelConnexion refusée
Section intitulée « Connexion refusée »Vérifiez que Ollama s’exécute sur le bon port :
# Check if Ollama is runningps aux | grep ollama
# Or restart Ollamaollama serveVoir aussi
Section intitulée « Voir aussi »- Fournisseurs de modèles - Aperçu de tous les fournisseurs
- Sélection de modèle - Comment choisir les modèles
- Configuration - Référence complète de la configuration