Ir al contenido

Ollama

Ollama es un tiempo de ejecución de LLM local que facilita la ejecución de modelos de código abierto en tu máquina. OpenClaw se integra con la API nativa de Ollama (/api/chat), admite streaming y llamadas a herramientas, y puede descubrir automáticamente los modelos locales de Ollama cuando te suscribes con OLLAMA_API_KEY (o un perfil de autenticación) y no defines una entrada explícita de models.providers.ollama.

La forma más rápida de configurar Ollama es a través de la incorporación:

Ventana de terminal
openclaw onboard

Seleccione Ollama de la lista de proveedores. La incorporación:

  1. Solicitará la URL base de Ollama donde se puede alcanzar tu instancia (por defecto http://127.0.0.1:11434).
  2. Te permitirá elegir Nube + Local (modelos en la nube y modelos locales) o Local (solo modelos locales).
  3. Abrirá un flujo de inicio de sesión en el navegador si eliges Nube + Local y no has iniciado sesión en ollama.com.
  4. Descubrirá los modelos disponibles y sugerirá los predeterminados.
  5. Descargará automáticamente el modelo seleccionado si no está disponible localmente.

También se admite el modo no interactivo:

Ventana de terminal
openclaw onboard --non-interactive \
--auth-choice ollama \
--accept-risk

Opcionalmente especifica una URL base o modelo personalizado:

Ventana de terminal
openclaw onboard --non-interactive \
--auth-choice ollama \
--custom-base-url "http://ollama-host:11434" \
--custom-model-id "qwen3.5:27b" \
--accept-risk
  1. Instala Ollama: https://ollama.com/download

  2. Descarga un modelo local si deseas inferencia local:

Ventana de terminal
ollama pull glm-4.7-flash
# or
ollama pull gpt-oss:20b
# or
ollama pull llama3.3
  1. Si también deseas modelos en la nube, inicia sesión:
Ventana de terminal
ollama signin
  1. Ejecuta la incorporación y elige Ollama:
Ventana de terminal
openclaw onboard
  • Local: solo modelos locales
  • Cloud + Local: modelos locales más modelos en la nube
  • Los modelos en la nube como kimi-k2.5:cloud, minimax-m2.5:cloud y glm-5:cloud no requieren un ollama pull local

Actualmente, OpenClaw sugiere:

  • predeterminado local: glm-4.7-flash
  • valores predeterminados en la nube: kimi-k2.5:cloud, minimax-m2.5:cloud, glm-5:cloud
  1. Si prefieres la configuración manual, habilita Ollama para OpenClaw directamente (cualquier valor funciona; Ollama no requiere una clave real):
Ventana de terminal
# Set environment variable
export OLLAMA_API_KEY="ollama-local"
# Or configure in your config file
openclaw config set models.providers.ollama.apiKey "ollama-local"
  1. Inspecciona o cambia los modelos:
Ventana de terminal
openclaw models list
openclaw models set ollama/glm-4.7-flash
  1. O establece el valor predeterminado en la configuración:
{
agents: {
defaults: {
model: { primary: "ollama/glm-4.7-flash" },
},
},
}

Descubrimiento de modelos (proveedor implícito)

Sección titulada «Descubrimiento de modelos (proveedor implícito)»

Cuando estableces OLLAMA_API_KEY (o un perfil de autenticación) y no defines models.providers.ollama, OpenClaw descubre modelos desde la instancia local de Ollama en http://127.0.0.1:11434:

  • Consulta /api/tags
  • Usa búsquedas de /api/show de mejor esfuerzo para leer contextWindow cuando esté disponible
  • Marca reasoning con un heurístico de nombre de modelo (r1, reasoning, think)
  • Establece maxTokens al límite máximo de tokens predeterminado de Ollama utilizado por OpenClaw
  • Establece todos los costos en 0

Esto evita entradas de modelo manuales manteniendo el catálogo alineado con la instancia local de Ollama.

Para ver qué modelos están disponibles:

Ventana de terminal
ollama list
openclaw models list

Para añadir un nuevo modelo, simplemente descárgalo con Ollama:

Ventana de terminal
ollama pull mistral

El nuevo modelo se descubrirá automáticamente y estará disponible para su uso.

Si estableces models.providers.ollama explícitamente, el autodescubrimiento se omite y debes definir los modelos manualmente (ver más abajo).

Configuración básica (descubrimiento implícito)

Sección titulada «Configuración básica (descubrimiento implícito)»

La forma más sencilla de habilitar Ollama es a través de una variable de entorno:

Ventana de terminal
export OLLAMA_API_KEY="ollama-local"

Configuración explícita (modelos manuales)

Sección titulada «Configuración explícita (modelos manuales)»

Usa la configuración explícita cuando:

  • Ollama se ejecuta en otro host/puerto.
  • Quieres forzar ventanas de contexto específicas o listas de modelos.
  • Quieres definiciones de modelos completamente manuales.
{
models: {
providers: {
ollama: {
baseUrl: "http://ollama-host:11434",
apiKey: "ollama-local",
api: "ollama",
models: [
{
id: "gpt-oss:20b",
name: "GPT-OSS 20B",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 8192,
maxTokens: 8192 * 10
}
]
}
}
}
}

Si se establece OLLAMA_API_KEY, puedes omitir apiKey en la entrada del proveedor y OpenClaw lo completará para las comprobaciones de disponibilidad.

URL base personalizada (configuración explícita)

Sección titulada «URL base personalizada (configuración explícita)»

Si Ollama se está ejecutando en un host o puerto diferente (la configuración explícita deshabilita el autodescubrimiento, así que define los modelos manualmente):

{
models: {
providers: {
ollama: {
apiKey: "ollama-local",
baseUrl: "http://ollama-host:11434", // No /v1 - use native Ollama API URL
api: "ollama", // Set explicitly to guarantee native tool-calling behavior
},
},
},
}

Una vez configurados, todos sus modelos de Ollama están disponibles:

{
agents: {
defaults: {
model: {
primary: "ollama/gpt-oss:20b",
fallbacks: ["ollama/llama3.3", "ollama/qwen2.5-coder:32b"],
},
},
},
}

Los modelos en la nube le permiten ejecutar modelos alojados en la nube (por ejemplo kimi-k2.5:cloud, minimax-m2.5:cloud, glm-5:cloud) junto con sus modelos locales.

Para usar modelos en la nube, seleccione el modo Nube + Local durante la configuración. El asistente verifica si ha iniciado sesión y abre un flujo de inicio de sesión en el navegador cuando es necesario. Si no se puede verificar la autenticación, el asistente recurre a los modelos locales predeterminados.

También puede iniciar sesión directamente en ollama.com/signin.

OpenClaw trata los modelos con nombres como deepseek-r1, reasoning o think como capaces de razonamiento de manera predeterminada:

Ventana de terminal
ollama pull deepseek-r1:32b

Ollama es gratuito y se ejecuta localmente, por lo que todos los costos del modelo se establecen en $0.

La integración de Ollama de OpenClaw utiliza la API nativa de Ollama (/api/chat) de manera predeterminada, que admite completamente la transmisión y la llamada de herramientas simultáneamente. No se necesita una configuración especial.

Si necesita usar el punto final compatible con OpenAI en su lugar (por ejemplo, detrás de un proxy que solo admite el formato OpenAI), establezca api: "openai-completions" explícitamente:

{
models: {
providers: {
ollama: {
baseUrl: "http://ollama-host:11434/v1",
api: "openai-completions",
injectNumCtxForOpenAICompat: true, // default: true
apiKey: "ollama-local",
models: [...]
}
}
}
}

Este modo puede no admitir la transmisión + llamada de herramientas simultáneamente. Es posible que deba deshabilitar la transmisión con params: { streaming: false } en la configuración del modelo.

Cuando se usa api: "openai-completions" con Ollama, OpenClaw inyecta options.num_ctx de manera predeterminada para que Ollama no vuelva silenciosamente a una ventana de contexto de 4096. Si su proxy/servidor ascendente rechaza campos options desconocidos, deshabilite este comportamiento:

{
models: {
providers: {
ollama: {
baseUrl: "http://ollama-host:11434/v1",
api: "openai-completions",
injectNumCtxForOpenAICompat: false,
apiKey: "ollama-local",
models: [...]
}
}
}
}

Para modelos descubiertos automáticamente, OpenClaw utiliza la ventana de contexto reportada por Ollama cuando está disponible, de lo contrario, recurre a la ventana de contexto predeterminada de Ollama utilizada por OpenClaw. Puede anular contextWindow y maxTokens en la configuración explícita del proveedor.

Asegúrate de que Ollama se esté ejecutando y de que hayas configurado OLLAMA_API_KEY (o un perfil de autenticación), y de que no hayas definido una entrada models.providers.ollama explícita:

Ventana de terminal
ollama serve

Y de que la API sea accesible:

Ventana de terminal
curl http://localhost:11434/api/tags

Si tu modelo no aparece en la lista:

  • Extrae el modelo localmente, o
  • Define el modelo explícitamente en models.providers.ollama.

Para agregar modelos:

Ventana de terminal
ollama list # See what's installed
ollama pull glm-4.7-flash
ollama pull gpt-oss:20b
ollama pull llama3.3 # Or another model

Comprueba que Ollama se esté ejecutando en el puerto correcto:

Ventana de terminal
# Check if Ollama is running
ps aux | grep ollama
# Or restart Ollama
ollama serve