vLLM
vLLM puede servir modelos de código abierto (y algunos personalizados) a través de una API HTTP compatible con OpenAI. OpenClaw puede conectarse a vLLM utilizando la API openai-completions.
OpenClaw también puede detectar automáticamente los modelos disponibles en vLLM cuando se habilita con VLLM_API_KEY (cualquier valor funciona si su servidor no exige autenticación) y no define una entrada models.providers.vllm explícita.
Inicio rápido
Sección titulada «Inicio rápido»- Inicie vLLM con un servidor compatible con OpenAI.
Su URL base debe exponer endpoints /v1 (por ejemplo, /v1/models, /v1/chat/completions). vLLM se ejecuta comúnmente en:
http://127.0.0.1:8000/v1
- Optar por participar (cualquier valor funciona si no se ha configurado autenticación):
export VLLM_API_KEY="vllm-local"- Seleccione un modelo (reemplácelo con uno de sus IDs de modelos vLLM):
{ agents: { defaults: { model: { primary: "vllm/your-model-id" }, }, },}Descubrimiento de modelos (proveedor implícito)
Sección titulada «Descubrimiento de modelos (proveedor implícito)»Cuando se establece VLLM_API_KEY (o existe un perfil de autenticación) y no define models.providers.vllm, OpenClaw consultará:
GET http://127.0.0.1:8000/v1/models
…y convertirá los IDs devueltos en entradas de modelo.
Si establece models.providers.vllm explícitamente, se omitirá el descubrimiento automático y deberá definir los modelos manualmente.
Configuración explícita (modelos manuales)
Sección titulada «Configuración explícita (modelos manuales)»Use configuración explícita cuando:
- vLLM se ejecuta en un host/puerto diferente.
- Desea fijar los valores de
contextWindow/maxTokens. - Su servidor requiere una clave de API real (o desea controlar los encabezados).
{ models: { providers: { vllm: { baseUrl: "http://127.0.0.1:8000/v1", apiKey: "${VLLM_API_KEY}", api: "openai-completions", models: [ { id: "your-model-id", name: "Local vLLM Model", reasoning: false, input: ["text"], cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }, contextWindow: 128000, maxTokens: 8192, }, ], }, }, },}Solución de problemas
Sección titulada «Solución de problemas»- Compruebe que el servidor es accesible:
curl http://127.0.0.1:8000/v1/models- Si las solicitudes fallan con errores de autenticación, establezca una
VLLM_API_KEYreal que coincida con la configuración de su servidor, o configure el proveedor explícitamente bajomodels.providers.vllm.