Ir al contenido

vLLM

vLLM puede servir modelos de código abierto (y algunos personalizados) a través de una API HTTP compatible con OpenAI. OpenClaw puede conectarse a vLLM utilizando la API openai-completions.

OpenClaw también puede detectar automáticamente los modelos disponibles en vLLM cuando se habilita con VLLM_API_KEY (cualquier valor funciona si su servidor no exige autenticación) y no define una entrada models.providers.vllm explícita.

  1. Inicie vLLM con un servidor compatible con OpenAI.

Su URL base debe exponer endpoints /v1 (por ejemplo, /v1/models, /v1/chat/completions). vLLM se ejecuta comúnmente en:

  • http://127.0.0.1:8000/v1
  1. Optar por participar (cualquier valor funciona si no se ha configurado autenticación):
Ventana de terminal
export VLLM_API_KEY="vllm-local"
  1. Seleccione un modelo (reemplácelo con uno de sus IDs de modelos vLLM):
{
agents: {
defaults: {
model: { primary: "vllm/your-model-id" },
},
},
}

Descubrimiento de modelos (proveedor implícito)

Sección titulada «Descubrimiento de modelos (proveedor implícito)»

Cuando se establece VLLM_API_KEY (o existe un perfil de autenticación) y no define models.providers.vllm, OpenClaw consultará:

  • GET http://127.0.0.1:8000/v1/models

…y convertirá los IDs devueltos en entradas de modelo.

Si establece models.providers.vllm explícitamente, se omitirá el descubrimiento automático y deberá definir los modelos manualmente.

Configuración explícita (modelos manuales)

Sección titulada «Configuración explícita (modelos manuales)»

Use configuración explícita cuando:

  • vLLM se ejecuta en un host/puerto diferente.
  • Desea fijar los valores de contextWindow/maxTokens.
  • Su servidor requiere una clave de API real (o desea controlar los encabezados).
{
models: {
providers: {
vllm: {
baseUrl: "http://127.0.0.1:8000/v1",
apiKey: "${VLLM_API_KEY}",
api: "openai-completions",
models: [
{
id: "your-model-id",
name: "Local vLLM Model",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 128000,
maxTokens: 8192,
},
],
},
},
},
}
  • Compruebe que el servidor es accesible:
Ventana de terminal
curl http://127.0.0.1:8000/v1/models
  • Si las solicitudes fallan con errores de autenticación, establezca una VLLM_API_KEY real que coincida con la configuración de su servidor, o configure el proveedor explícitamente bajo models.providers.vllm.