Ollama
Ollama es un tiempo de ejecución de LLM local que facilita la ejecución de modelos de código abierto en tu máquina. OpenClaw se integra con la API nativa de Ollama (/api/chat), admite streaming y llamadas a herramientas, y puede descubrir automáticamente los modelos locales de Ollama cuando te suscribes con OLLAMA_API_KEY (o un perfil de autenticación) y no defines una entrada explícita de models.providers.ollama.
Inicio rápido
Sección titulada «Inicio rápido»Incorporación (recomendado)
Sección titulada «Incorporación (recomendado)»La forma más rápida de configurar Ollama es a través de la incorporación:
openclaw onboardSeleccione Ollama de la lista de proveedores. La incorporación:
- Solicitará la URL base de Ollama donde se puede alcanzar tu instancia (por defecto
http://127.0.0.1:11434). - Te permitirá elegir Nube + Local (modelos en la nube y modelos locales) o Local (solo modelos locales).
- Abrirá un flujo de inicio de sesión en el navegador si eliges Nube + Local y no has iniciado sesión en ollama.com.
- Descubrirá los modelos disponibles y sugerirá los predeterminados.
- Descargará automáticamente el modelo seleccionado si no está disponible localmente.
También se admite el modo no interactivo:
openclaw onboard --non-interactive \ --auth-choice ollama \ --accept-riskOpcionalmente especifica una URL base o modelo personalizado:
openclaw onboard --non-interactive \ --auth-choice ollama \ --custom-base-url "http://ollama-host:11434" \ --custom-model-id "qwen3.5:27b" \ --accept-riskConfiguración manual
Sección titulada «Configuración manual»-
Instala Ollama: https://ollama.com/download
-
Descarga un modelo local si deseas inferencia local:
ollama pull glm-4.7-flash# orollama pull gpt-oss:20b# orollama pull llama3.3- Si también deseas modelos en la nube, inicia sesión:
ollama signin- Ejecuta la incorporación y elige
Ollama:
openclaw onboardLocal: solo modelos localesCloud + Local: modelos locales más modelos en la nube- Los modelos en la nube como
kimi-k2.5:cloud,minimax-m2.5:cloudyglm-5:cloudno requieren unollama pulllocal
Actualmente, OpenClaw sugiere:
- predeterminado local:
glm-4.7-flash - valores predeterminados en la nube:
kimi-k2.5:cloud,minimax-m2.5:cloud,glm-5:cloud
- Si prefieres la configuración manual, habilita Ollama para OpenClaw directamente (cualquier valor funciona; Ollama no requiere una clave real):
# Set environment variableexport OLLAMA_API_KEY="ollama-local"
# Or configure in your config fileopenclaw config set models.providers.ollama.apiKey "ollama-local"- Inspecciona o cambia los modelos:
openclaw models listopenclaw models set ollama/glm-4.7-flash- O establece el valor predeterminado en la configuración:
{ agents: { defaults: { model: { primary: "ollama/glm-4.7-flash" }, }, },}Descubrimiento de modelos (proveedor implícito)
Sección titulada «Descubrimiento de modelos (proveedor implícito)»Cuando estableces OLLAMA_API_KEY (o un perfil de autenticación) y no defines models.providers.ollama, OpenClaw descubre modelos desde la instancia local de Ollama en http://127.0.0.1:11434:
- Consulta
/api/tags - Usa búsquedas de
/api/showde mejor esfuerzo para leercontextWindowcuando esté disponible - Marca
reasoningcon un heurístico de nombre de modelo (r1,reasoning,think) - Establece
maxTokensal límite máximo de tokens predeterminado de Ollama utilizado por OpenClaw - Establece todos los costos en
0
Esto evita entradas de modelo manuales manteniendo el catálogo alineado con la instancia local de Ollama.
Para ver qué modelos están disponibles:
ollama listopenclaw models listPara añadir un nuevo modelo, simplemente descárgalo con Ollama:
ollama pull mistralEl nuevo modelo se descubrirá automáticamente y estará disponible para su uso.
Si estableces models.providers.ollama explícitamente, el autodescubrimiento se omite y debes definir los modelos manualmente (ver más abajo).
Configuración
Sección titulada «Configuración»Configuración básica (descubrimiento implícito)
Sección titulada «Configuración básica (descubrimiento implícito)»La forma más sencilla de habilitar Ollama es a través de una variable de entorno:
export OLLAMA_API_KEY="ollama-local"Configuración explícita (modelos manuales)
Sección titulada «Configuración explícita (modelos manuales)»Usa la configuración explícita cuando:
- Ollama se ejecuta en otro host/puerto.
- Quieres forzar ventanas de contexto específicas o listas de modelos.
- Quieres definiciones de modelos completamente manuales.
{ models: { providers: { ollama: { baseUrl: "http://ollama-host:11434", apiKey: "ollama-local", api: "ollama", models: [ { id: "gpt-oss:20b", name: "GPT-OSS 20B", reasoning: false, input: ["text"], cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }, contextWindow: 8192, maxTokens: 8192 * 10 } ] } } }}Si se establece OLLAMA_API_KEY, puedes omitir apiKey en la entrada del proveedor y OpenClaw lo completará para las comprobaciones de disponibilidad.
URL base personalizada (configuración explícita)
Sección titulada «URL base personalizada (configuración explícita)»Si Ollama se está ejecutando en un host o puerto diferente (la configuración explícita deshabilita el autodescubrimiento, así que define los modelos manualmente):
{ models: { providers: { ollama: { apiKey: "ollama-local", baseUrl: "http://ollama-host:11434", // No /v1 - use native Ollama API URL api: "ollama", // Set explicitly to guarantee native tool-calling behavior }, }, },}Selección de modelo
Sección titulada «Selección de modelo»Una vez configurados, todos sus modelos de Ollama están disponibles:
{ agents: { defaults: { model: { primary: "ollama/gpt-oss:20b", fallbacks: ["ollama/llama3.3", "ollama/qwen2.5-coder:32b"], }, }, },}Modelos en la nube
Sección titulada «Modelos en la nube»Los modelos en la nube le permiten ejecutar modelos alojados en la nube (por ejemplo kimi-k2.5:cloud, minimax-m2.5:cloud, glm-5:cloud) junto con sus modelos locales.
Para usar modelos en la nube, seleccione el modo Nube + Local durante la configuración. El asistente verifica si ha iniciado sesión y abre un flujo de inicio de sesión en el navegador cuando es necesario. Si no se puede verificar la autenticación, el asistente recurre a los modelos locales predeterminados.
También puede iniciar sesión directamente en ollama.com/signin.
Avanzado
Sección titulada «Avanzado»Modelos de razonamiento
Sección titulada «Modelos de razonamiento»OpenClaw trata los modelos con nombres como deepseek-r1, reasoning o think como capaces de razonamiento de manera predeterminada:
ollama pull deepseek-r1:32bCostos del modelo
Sección titulada «Costos del modelo»Ollama es gratuito y se ejecuta localmente, por lo que todos los costos del modelo se establecen en $0.
Configuración de transmisión
Sección titulada «Configuración de transmisión»La integración de Ollama de OpenClaw utiliza la API nativa de Ollama (/api/chat) de manera predeterminada, que admite completamente la transmisión y la llamada de herramientas simultáneamente. No se necesita una configuración especial.
Modo heredado compatible con OpenAI
Sección titulada «Modo heredado compatible con OpenAI»Si necesita usar el punto final compatible con OpenAI en su lugar (por ejemplo, detrás de un proxy que solo admite el formato OpenAI), establezca api: "openai-completions" explícitamente:
{ models: { providers: { ollama: { baseUrl: "http://ollama-host:11434/v1", api: "openai-completions", injectNumCtxForOpenAICompat: true, // default: true apiKey: "ollama-local", models: [...] } } }}Este modo puede no admitir la transmisión + llamada de herramientas simultáneamente. Es posible que deba deshabilitar la transmisión con params: { streaming: false } en la configuración del modelo.
Cuando se usa api: "openai-completions" con Ollama, OpenClaw inyecta options.num_ctx de manera predeterminada para que Ollama no vuelva silenciosamente a una ventana de contexto de 4096. Si su proxy/servidor ascendente rechaza campos options desconocidos, deshabilite este comportamiento:
{ models: { providers: { ollama: { baseUrl: "http://ollama-host:11434/v1", api: "openai-completions", injectNumCtxForOpenAICompat: false, apiKey: "ollama-local", models: [...] } } }}Ventanas de contexto
Sección titulada «Ventanas de contexto»Para modelos descubiertos automáticamente, OpenClaw utiliza la ventana de contexto reportada por Ollama cuando está disponible, de lo contrario, recurre a la ventana de contexto predeterminada de Ollama utilizada por OpenClaw. Puede anular contextWindow y maxTokens en la configuración explícita del proveedor.
Solución de problemas
Sección titulada «Solución de problemas»Ollama no detectado
Sección titulada «Ollama no detectado»Asegúrate de que Ollama se esté ejecutando y de que hayas configurado OLLAMA_API_KEY (o un perfil de autenticación), y de que no hayas definido una entrada models.providers.ollama explícita:
ollama serveY de que la API sea accesible:
curl http://localhost:11434/api/tagsNo hay modelos disponibles
Sección titulada «No hay modelos disponibles»Si tu modelo no aparece en la lista:
- Extrae el modelo localmente, o
- Define el modelo explícitamente en
models.providers.ollama.
Para agregar modelos:
ollama list # See what's installedollama pull glm-4.7-flashollama pull gpt-oss:20bollama pull llama3.3 # Or another modelConexión rechazada
Sección titulada «Conexión rechazada»Comprueba que Ollama se esté ejecutando en el puerto correcto:
# Check if Ollama is runningps aux | grep ollama
# Or restart Ollamaollama serveVéase también
Sección titulada «Véase también»- Proveedores de modelos - Resumen de todos los proveedores
- Selección de modelos - Cómo elegir modelos
- Configuración - Referencia completa de configuración