Proveedores de Modelos
Proveedores de modelos
Sección titulada «Proveedores de modelos»Esta página cubre los proveedores de LLM/modelos (no canales de chat como WhatsApp/Telegram). Para ver las reglas de selección de modelos, consulte /concepts/models.
Reglas rápidas
Sección titulada «Reglas rápidas»- Las referencias de modelo usan
provider/model(ejemplo:opencode/claude-opus-4-6). - Si establece
agents.defaults.models, se convierte en la lista de permitidos. - Ayudantes de CLI:
openclaw onboard,openclaw models list,openclaw models set <provider/model>. - Los complementos del proveedor pueden inyectar catálogos de modelos a través de
registerProvider({ catalog }); OpenClaw fusiona esa salida enmodels.providersantes de escribirmodels.json. - Los manifiestos del proveedor pueden declarar
providerAuthEnvVarspara que las sondas de autenticación genéricas basadas en entorno no necesiten cargar el tiempo de ejecución del complemento. El mapa de variables de entorno central restante ahora es solo para proveedores principales/no complementarios y algunos casos de precedencia genérica, como la incorporación con prioridad de clave de API de Anthropic. - Los complementos del proveedor también pueden controlar el comportamiento del tiempo de ejecución del proveedor a través de
resolveDynamicModel,prepareDynamicModel,normalizeResolvedModel,capabilities,prepareExtraParams,wrapStreamFn,formatApiKey,refreshOAuth,buildAuthDoctorHint,isCacheTtlEligible,buildMissingAuthMessage,suppressBuiltInModel,augmentModelCatalog,isBinaryThinking,supportsXHighThinking,resolveDefaultThinkingLevel,isModernModelRef,prepareRuntimeAuth,resolveUsageAuthyfetchUsageSnapshot. - Nota: el tiempo de ejecución del proveedor
capabilitiesson metadatos compartidos del ejecutor (familia del proveedor, peculiaridades de transcripción/herramientas, sugerencias de transporte/caché). No es lo mismo que el modelo de capacidad pública que describe lo que registra un complemento (inferencia de texto, voz, etc.).
Comportamiento del proveedor propiedad del complemento
Sección titulada «Comportamiento del proveedor propiedad del complemento»Los complementos del proveedor ahora pueden poseer la mayor parte de la lógica específica del proveedor, mientras que OpenClaw mantiene el bucle de inferencia genérico.
División típica:
auth[].run/auth[].runNonInteractive: el proveedor es propietario de los flujos de incorporación/inicio de sesión paraopenclaw onboard,openclaw models authy la configuración sin cabezawizard.setup/wizard.modelPicker: el proveedor es propietario de las etiquetas de elección de autenticación, alias heredados, sugerencias de lista de permitidos de incorporación y entradas de configuración en los selectores de incorporación/modelocatalog: el proveedor aparece enmodels.providersresolveDynamicModel: el proveedor acepta IDs de modelo que aún no están presentes en el catálogo estático localprepareDynamicModel: el proveedor necesita una actualización de metadatos antes de reintentar la resolución dinámicanormalizeResolvedModel: el proveedor necesita reescrituras de transporte o URL basecapabilities: el proveedor publica peculiaridades de transcripción/herramientas/familia de proveedoresprepareExtraParams: el proveedor establece valores predeterminados o normaliza los parámetros de solicitud por modelowrapStreamFn: el proveedor aplica encabezados de solicitud/cuerpo/envoltorios de compatibilidad de modeloformatApiKey: el proveedor da formato a los perfiles de autenticación almacenados en la cadenaapiKeyde tiempo de ejecución esperada por el transporterefreshOAuth: el proveedor es propietario de la actualización de OAuth cuando los actualizadorespi-aicompartidos no son suficientesbuildAuthDoctorHint: el proveedor añade orientación de reparación cuando falla la actualización de OAuthisCacheTtlEligible: el proveedor decide qué IDs de modelo upstream admiten el TTL de caché de solicitudbuildMissingAuthMessage: el proveedor reemplaza el error genérico del almacén de autenticación con una sugerencia de recuperación específica del proveedorsuppressBuiltInModel: el proveedor oculta filas upstream obsoletas y puede devolver un error propiedad del proveedor para fallos de resolución directaaugmentModelCatalog: el proveedor añade filas sintéticas/finales del catálogo después del descubrimiento y la fusión de configuraciónisBinaryThinking: el proveedor es propietario de la experiencia de usuario de pensamiento binario encendido/apagadosupportsXHighThinking: el proveedor opta por los modelos seleccionados enxhighresolveDefaultThinkingLevel: el proveedor es propietario de la política/thinkpredeterminada para una familia de modelosisModernModelRef: el proveedor es responsable de la coincidencia del modelo preferido de live/smokeprepareRuntimeAuth: el proveedor convierte una credencial configurada en un token de tiempo de ejecución de corta duraciónresolveUsageAuth: el proveedor resuelve las credenciales de uso/cuota para/usagey las superficies de estado/informes relacionadasfetchUsageSnapshot: el proveedor es responsable de la obtución/análisis del endpoint de uso, mientras que el núcleo sigue siendo responsable del contenedor y el formato del resumen
Ejemplos empaquetados actuales:
anthropic: respaldo de compatibilidad con versiones posteriores de Claude 4.6, sugerencias de reparación de autenticación, obtención del endpoint de uso y metadatos de caché-TTL/familia del proveedoropenrouter: ids de modelos de paso directo, contenedores de solicitudes, sugerencias de capacidad del proveedor y política de caché-TTLgithub-copilot: incorporación/inicio de sesión del dispositivo, respaldo de compatibilidad con versiones posteriores del modelo, sugerencias de transcripción de Claude-thinking, intercambio de tokens de tiempo de ejecución y obtención del endpoint de usoopenai: respaldo de compatibilidad con versiones posteriores de GPT-5.4, normalización del transporte directo de OpenAI, sugerencias de autenticación faltante compatible con Codex, supresión de Spark, filas sintéticas del catálogo de OpenAI/Codex, política de modelos thinking/live y metadatos de familia del proveedorgoogleygoogle-gemini-cli: respaldo de compatibilidad con versiones posteriores de Gemini 3.1 y coincidencia de modelos modernos; Gemini CLI OAuth también es responsable del formato de tokens de perfil de autenticación, el análisis de tokens de uso y la obtención del endpoint de cuota para las superficies de usomoonshot: transporte compartido, normalización de carga útil thinking propiedad del complementokilocode: transporte compartido, encabezados de solicitud propiedad del complemento, normalización de carga útil de razonamiento, sugerencias de transcripción de Gemini y política de caché-TTLzai: respaldo de compatibilidad con versiones posteriores de GLM-5, valores predeterminados detool_stream, política de caché-TTL, política de modelos binary-thinking/live y autenticación de uso + obtención de cuotamistral,opencodeyopencode-go: metadatos de capacidad propiedad del complementobyteplus,cloudflare-ai-gateway,huggingface,kimi-coding,modelstudio,nvidia,qianfan,synthetic,together,venice,vercel-ai-gateway, yvolcengine: solo catálogos propiedad de complementosminimaxyxiaomi: catálogos propiedad de complementos más lógica de autorización/instantánea de uso
El complemento incluido openai ahora posee ambos ids de proveedor: openai y
openai-codex.
Eso cubre los proveedores que aún se ajustan a los transportes normales de OpenClaw. Un proveedor que necesita un ejecutor de solicitudes totalmente personalizado es una superficie de extensión separada y más profunda.
Rotación de claves API
Sección titulada «Rotación de claves API»- Admite la rotación genérica de proveedores para proveedores seleccionados.
- Configure múltiples claves a través de:
OPENCLAW_LIVE_<PROVIDER>_KEY(anulación en vivo única, máxima prioridad)<PROVIDER>_API_KEYS(lista separada por comas o punto y coma)<PROVIDER>_API_KEY(clave primaria)<PROVIDER>_API_KEY_*(lista numerada, p. ej.<PROVIDER>_API_KEY_1)
- Para proveedores de Google,
GOOGLE_API_KEYtambién se incluye como alternativa. - El orden de selección de claves preserva la prioridad y elimina duplicados de los valores.
- Las solicitudes se reintentan con la siguiente clave solo en respuestas de límite de velocidad (por ejemplo
429,rate_limit,quota,resource exhausted). - Los fallos que no son por límite de velocidad fallan inmediatamente; no se intenta la rotación de claves.
- Cuando fallan todas las claves candidatas, se devuelve el error final del último intento.
Proveedores integrados (catálogo pi-ai)
Sección titulada «Proveedores integrados (catálogo pi-ai)»OpenClaw incluye el catálogo pi‑ai. Estos proveedores no requieren ninguna
configuración models.providers; simplemente configure la autenticación + elija un modelo.
- Proveedor:
openai - Autenticación:
OPENAI_API_KEY - Rotación opcional:
OPENAI_API_KEYS,OPENAI_API_KEY_1,OPENAI_API_KEY_2, másOPENCLAW_LIVE_OPENAI_KEY(anulación única) - Modelos de ejemplo:
openai/gpt-5.4,openai/gpt-5.4-pro - CLI:
openclaw onboard --auth-choice openai-api-key - El transporte predeterminado es
auto(prioridad WebSocket, respaldo SSE) - Anular por modelo mediante
agents.defaults.models["openai/<model>"].params.transport("sse","websocket"o"auto") - El calentamiento de WebSocket de OpenAI Responses está habilitado de forma predeterminada mediante
params.openaiWsWarmup(true/false) - El procesamiento prioritario de OpenAI se puede habilitar mediante
agents.defaults.models["openai/<model>"].params.serviceTier /fastyparams.fastModeasignan las solicitudes directas de Responses deopenai/*aservice_tier=priorityenapi.openai.com- Use
params.serviceTiercuando desee un nivel explícito en lugar del alternador compartido/fast openai/gpt-5.3-codex-sparkse suprime intencionalmente en OpenClaw porque la API en vivo de OpenAI la rechaza; Spark se trata como exclusivo de Codex
{ agents: { defaults: { model: { primary: "openai/gpt-5.4" } } },}Anthropic
Sección titulada «Anthropic»- Proveedor:
anthropic - Autenticación:
ANTHROPIC_API_KEYoclaude setup-token - Rotación opcional:
ANTHROPIC_API_KEYS,ANTHROPIC_API_KEY_1,ANTHROPIC_API_KEY_2, másOPENCLAW_LIVE_ANTHROPIC_KEY(anulación única) - Modelo de ejemplo:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice token(pegar token de configuración) oopenclaw models auth paste-token --provider anthropic - Las solicitudes directas públicas a Anthropic admiten el alternador compartido
/fastyparams.fastMode, incluido el tráfico autenticado con clave de API y OAuth enviado aapi.anthropic.com; OpenClaw lo asigna aservice_tierde Anthropic (autovsstandard_only) - Nota de política: el soporte de token de configuración es compatibilidad técnica; Anthropic ha bloqueado algunos usos de suscripción fuera de Claude Code en el pasado. Verifique los términos actuales de Anthropic y decida según su tolerancia al riesgo.
- Recomendación: la autenticación con clave de API de Anthropic es la ruta más segura y recomendada en comparación con la autenticación por token de configuración de suscripción.
{ agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },}OpenAI Code (Codex)
Sección titulada «OpenAI Code (Codex)»- Proveedor:
openai-codex - Autenticación: OAuth (ChatGPT)
- Modelo de ejemplo:
openai-codex/gpt-5.4 - CLI:
openclaw onboard --auth-choice openai-codexoopenclaw models auth login --provider openai-codex - El transporte predeterminado es
auto(WebSocket primero, respaldo SSE) - Anular por modelo mediante
agents.defaults.models["openai-codex/<model>"].params.transport("sse","websocket", o"auto") params.serviceTiertambién se reenvía en las solicitudes de respuestas nativas de Codex (chatgpt.com/backend-api)- Comparte el mismo interruptor
/fasty la configuraciónparams.fastModeque elopenai/*directo; OpenClaw lo asigna aservice_tier=priority openai-codex/gpt-5.3-codex-sparkpermanece disponible cuando el catálogo OAuth de Codex lo expone; dependiente de derechos- Nota de política: OpenAI Codex OAuth es compatible explícitamente con herramientas/flujos de trabajo externos como OpenClaw.
{ agents: { defaults: { model: { primary: "openai-codex/gpt-5.4" } } },}OpenCode
Sección titulada «OpenCode»- Auth:
OPENCODE_API_KEY(oOPENCODE_ZEN_API_KEY) - Proveedor de tiempo de ejecución Zen:
opencode - Proveedor de tiempo de ejecución Go:
opencode-go - Modelos de ejemplo:
opencode/claude-opus-4-6,opencode-go/kimi-k2.5 - CLI:
openclaw onboard --auth-choice opencode-zenoopenclaw onboard --auth-choice opencode-go
{ agents: { defaults: { model: { primary: "opencode/claude-opus-4-6" } } },}Google Gemini (clave de API)
Sección titulada «Google Gemini (clave de API)»- Proveedor:
google - Auth:
GEMINI_API_KEY - Rotación opcional:
GEMINI_API_KEYS,GEMINI_API_KEY_1,GEMINI_API_KEY_2, respaldoGOOGLE_API_KEYyOPENCLAW_LIVE_GEMINI_KEY(anulación única) - Modelos de ejemplo:
google/gemini-3.1-pro-preview,google/gemini-3-flash-preview - Compatibilidad: la configuración heredada de OpenClaw que usa
google/gemini-3.1-flash-previewse normaliza agoogle/gemini-3-flash-preview - CLI:
openclaw onboard --auth-choice gemini-api-key
CLI de Google Vertex y Gemini
Sección titulada «CLI de Google Vertex y Gemini»- Proveedores:
google-vertex,google-gemini-cli - Auth: Vertex usa gcloud ADC; Gemini CLI usa su propio flujo OAuth
- Precaución: OAuth de Gemini CLI en OpenClaw es una integración no oficial. Algunos usuarios han informado restricciones en la cuenta de Google después de usar clientes de terceros. Revise los términos de Google y use una cuenta no crítica si decide continuar.
- Gemini CLI OAuth se incluye como parte del complemento integrado
google.- Activar:
openclaw plugins enable google - Inicio de sesión:
openclaw models auth login --provider google-gemini-cli --set-default - Nota: no pegues un ID de cliente ni un secreto en
openclaw.json. El flujo de inicio de sesión de la CLI almacena tokens en perfiles de autenticación en el host de la puerta de enlace.
- Activar:
Z.AI (GLM)
Sección titulada «Z.AI (GLM)»- Proveedor:
zai - Autenticación:
ZAI_API_KEY - Modelo de ejemplo:
zai/glm-5 - CLI:
openclaw onboard --auth-choice zai-api-key- Alias:
z.ai/*yz-ai/*se normalizan azai/*
- Alias:
Vercel AI Gateway
Sección titulada «Vercel AI Gateway»- Proveedor:
vercel-ai-gateway - Autenticación:
AI_GATEWAY_API_KEY - Modelo de ejemplo:
vercel-ai-gateway/anthropic/claude-opus-4.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
Sección titulada «Kilo Gateway»- Proveedor:
kilocode - Autenticación:
KILOCODE_API_KEY - Modelo de ejemplo:
kilocode/anthropic/claude-opus-4.6 - CLI:
openclaw onboard --kilocode-api-key <key> - URL base:
https://api.kilo.ai/api/gateway/ - El catálogo integrado ampliado incluye GLM-5 Free, MiniMax M2.7 Free, GPT-5.2, Gemini 3 Pro Preview, Gemini 3 Flash Preview, Grok Code Fast 1 y Kimi K2.5.
Consulta /providers/kilocode para obtener detalles de configuración.
Otros complementos de proveedor integrados
Sección titulada «Otros complementos de proveedor integrados»- OpenRouter:
openrouter(OPENROUTER_API_KEY) - Modelo de ejemplo:
openrouter/anthropic/claude-sonnet-4-6 - Kilo Gateway:
kilocode(KILOCODE_API_KEY) - Modelo de ejemplo:
kilocode/anthropic/claude-opus-4.6 - MiniMax:
minimax(MINIMAX_API_KEY) - Moonshot:
moonshot(MOONSHOT_API_KEY) - Kimi Coding:
kimi-coding(KIMI_API_KEYoKIMICODE_API_KEY) - Qianfan:
qianfan(QIANFAN_API_KEY) - Model Studio:
modelstudio(MODELSTUDIO_API_KEY) - NVIDIA:
nvidia(NVIDIA_API_KEY) - Together:
together(TOGETHER_API_KEY) - Venice:
venice(VENICE_API_KEY) - Xiaomi:
xiaomi(XIAOMI_API_KEY) - Vercel AI Gateway:
vercel-ai-gateway(AI_GATEWAY_API_KEY) - Hugging Face Inference:
huggingface(HUGGINGFACE_HUB_TOKENoHF_TOKEN) - Cloudflare AI Gateway:
cloudflare-ai-gateway(CLOUDFLARE_AI_GATEWAY_API_KEY) - Volcengine:
volcengine(VOLCANO_ENGINE_API_KEY) - BytePlus:
byteplus(BYTEPLUS_API_KEY) - xAI:
xai(XAI_API_KEY) - Mistral:
mistral(MISTRAL_API_KEY) - Modelo de ejemplo:
mistral/mistral-large-latest - CLI:
openclaw onboard --auth-choice mistral-api-key - Groq:
groq(GROQ_API_KEY) - Cerebras:
cerebras(CEREBRAS_API_KEY)- Los modelos GLM en Cerebras usan los ids
zai-glm-4.7yzai-glm-4.6. - URL base compatible con OpenAI:
https://api.cerebras.ai/v1.
- Los modelos GLM en Cerebras usan los ids
- GitHub Copilot:
github-copilot(COPILOT_GITHUB_TOKEN/GH_TOKEN/GITHUB_TOKEN) - Modelo de ejemplo de Hugging Face Inference:
huggingface/deepseek-ai/DeepSeek-R1; CLI:openclaw onboard --auth-choice huggingface-api-key. Consulte Hugging Face (Inference).
Proveedores a través de models.providers (URL personalizada/base)
Sección titulada «Proveedores a través de models.providers (URL personalizada/base)»Use models.providers (o models.json) para agregar proveedores personalizados o
proxies compatibles con OpenAI/Anthropic.
Muchos de los complementos de proveedores incluidos a continuación ya publican un catálogo predeterminado.
Use entradas explícitas de models.providers.<id> solo cuando desee anular la
URL base predeterminada, los encabezados o la lista de modelos.
Moonshot AI (Kimi)
Sección titulada «Moonshot AI (Kimi)»Moonshot utiliza puntos finales compatibles con OpenAI, así que configúrelo como un proveedor personalizado:
- Proveedor:
moonshot - Autenticación:
MOONSHOT_API_KEY - Modelo de ejemplo:
moonshot/kimi-k2.5
IDs de modelos de Kimi K2:
moonshot/kimi-k2.5moonshot/kimi-k2-0905-previewmoonshot/kimi-k2-turbo-previewmoonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbo
{ agents: { defaults: { model: { primary: "moonshot/kimi-k2.5" } }, }, models: { mode: "merge", providers: { moonshot: { baseUrl: "https://api.moonshot.ai/v1", apiKey: "${MOONSHOT_API_KEY}", api: "openai-completions", models: [{ id: "kimi-k2.5", name: "Kimi K2.5" }], }, }, },}Kimi Coding
Sección titulada «Kimi Coding»Kimi Coding utiliza el endpoint compatible con Anthropic de Moonshot AI:
- Proveedor:
kimi-coding - Autenticación:
KIMI_API_KEY - Modelo de ejemplo:
kimi-coding/k2p5
{ env: { KIMI_API_KEY: "sk-..." }, agents: { defaults: { model: { primary: "kimi-coding/k2p5" } }, },}Volcano Engine (Doubao)
Sección titulada «Volcano Engine (Doubao)»Volcano Engine (火山引擎) proporciona acceso a Doubao y otros modelos en China.
- Proveedor:
volcengine(codificación:volcengine-plan) - Autenticación:
VOLCANO_ENGINE_API_KEY - Modelo de ejemplo:
volcengine/doubao-seed-1-8-251228 - CLI:
openclaw onboard --auth-choice volcengine-api-key
{ agents: { defaults: { model: { primary: "volcengine/doubao-seed-1-8-251228" } }, },}Modelos disponibles:
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
Modelos de codificación (volcengine-plan):
volcengine-plan/ark-code-latestvolcengine-plan/doubao-seed-codevolcengine-plan/kimi-k2.5volcengine-plan/kimi-k2-thinkingvolcengine-plan/glm-4.7
BytePlus (Internacional)
Sección titulada «BytePlus (Internacional)»BytePlus ARK proporciona acceso a los mismos modelos que Volcano Engine para usuarios internacionales.
- Proveedor:
byteplus(codificación:byteplus-plan) - Autenticación:
BYTEPLUS_API_KEY - Modelo de ejemplo:
byteplus/seed-1-8-251228 - CLI:
openclaw onboard --auth-choice byteplus-api-key
{ agents: { defaults: { model: { primary: "byteplus/seed-1-8-251228" } }, },}Modelos disponibles:
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
Modelos de codificación (byteplus-plan):
byteplus-plan/ark-code-latestbyteplus-plan/doubao-seed-codebyteplus-plan/kimi-k2.5byteplus-plan/kimi-k2-thinkingbyteplus-plan/glm-4.7
Synthetic
Sección titulada «Synthetic»Synthetic proporciona modelos compatibles con Anthropic detrás del proveedor synthetic:
- Proveedor:
synthetic - Autenticación:
SYNTHETIC_API_KEY - Modelo de ejemplo:
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI:
openclaw onboard --auth-choice synthetic-api-key
{ agents: { defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" } }, }, models: { mode: "merge", providers: { synthetic: { baseUrl: "https://api.synthetic.new/anthropic", apiKey: "${SYNTHETIC_API_KEY}", api: "anthropic-messages", models: [{ id: "hf:MiniMaxAI/MiniMax-M2.5", name: "MiniMax M2.5" }], }, }, },}MiniMax
Sección titulada «MiniMax»MiniMax se configura a través de models.providers porque utiliza endpoints personalizados:
- MiniMax (compatible con Anthropic):
--auth-choice minimax-api - Autenticación:
MINIMAX_API_KEY
Consulte /providers/minimax para obtener detalles de configuración, opciones de modelo y fragmentos de configuración.
Ollama se incluye como un complemento de proveedor empaquetado y utiliza la API nativa de Ollama:
- Proveedor:
ollama - Autenticación: No se requiere (servidor local)
- Modelo de ejemplo:
ollama/llama3.3 - Instalación: https://ollama.com/download
# Install Ollama, then pull a model:ollama pull llama3.3{ agents: { defaults: { model: { primary: "ollama/llama3.3" } }, },}Ollama se detecta localmente en http://127.0.0.1:11434 cuando se activa con
OLLAMA_API_KEY, y el complemento del proveedor empaquetado añade Ollama directamente a
openclaw onboard y al selector de modelos. Consulte /providers/ollama
para obtener información sobre incorporación, modo en la nube/local y configuración personalizada.
vLLM se incluye como un complemento de proveedor empaquetado para servidores compatibles con OpenAI locales/autoalojados:
- Proveedor:
vllm - Autenticación: Opcional (depende de su servidor)
- URL base predeterminada:
http://127.0.0.1:8000/v1
Para activar el autodescubrimiento localmente (cualquier valor funciona si su servidor no exige autenticación):
export VLLM_API_KEY="vllm-local"A continuación, establezca un modelo (reemplácelo con uno de los IDs devueltos por /v1/models):
{ agents: { defaults: { model: { primary: "vllm/your-model-id" } }, },}Consulte /providers/vllm para obtener más detalles.
SGLang se incluye como un complemento de proveedor empaquetado para servidores compatibles con OpenAI rápidos y autoalojados:
- Proveedor:
sglang - Autenticación: Opcional (depende de su servidor)
- URL base predeterminada:
http://127.0.0.1:30000/v1
Para activar el autodescubrimiento localmente (cualquier valor funciona si su servidor no exige autenticación):
export SGLANG_API_KEY="sglang-local"A continuación, establezca un modelo (reemplácelo con uno de los IDs devueltos por /v1/models):
{ agents: { defaults: { model: { primary: "sglang/your-model-id" } }, },}Consulte /providers/sglang para obtener más detalles.
Proxies locales (LM Studio, vLLM, LiteLLM, etc.)
Sección titulada «Proxies locales (LM Studio, vLLM, LiteLLM, etc.)»Ejemplo (compatible con OpenAI):
{ agents: { defaults: { model: { primary: "lmstudio/my-local-model" }, models: { "lmstudio/my-local-model": { alias: "Local" } }, }, }, models: { providers: { lmstudio: { baseUrl: "http://localhost:1234/v1", apiKey: "LMSTUDIO_KEY", api: "openai-completions", models: [ { id: "my-local-model", name: "Local Model", reasoning: false, input: ["text"], cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }, contextWindow: 200000, maxTokens: 8192, }, ], }, }, },}Notas:
- Para proveedores personalizados,
reasoning,input,cost,contextWindowymaxTokensson opcionales. Cuando se omiten, OpenClaw usa por defecto:reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
- Recomendado: establecer valores explícitos que coincidan con los límites de su proxy/modelo.
- Para
api: "openai-completions"en endpoints no nativos (cualquierbaseUrlno vacío cuyo host no seaapi.openai.com), OpenClaw fuerzacompat.supportsDeveloperRole: falsepara evitar errores 400 del proveedor por rolesdeveloperno compatibles. - Si
baseUrlestá vacío u omitido, OpenClaw mantiene el comportamiento predeterminado de OpenAI (que se resuelve aapi.openai.com). - Por seguridad, un
compat.supportsDeveloperRole: trueexplícito aún se anula en endpointsopenai-completionsno nativos.
Ejemplos de CLI
Sección titulada «Ejemplos de CLI»openclaw onboard --auth-choice opencode-zenopenclaw models set opencode/claude-opus-4-6openclaw models listVer también: /gateway/configuration para ejemplos completos de configuración.
Relacionado
Sección titulada «Relacionado»- Modelos — configuración y alias de modelos
- Conmutación por error de modelos (Model Failover) — cadenas de respaldo y comportamiento de reintentos
- Referencia de configuración — claves de configuración de modelos
- Proveedores — guías de configuración por proveedor