OpenAI
OpenAI proporciona API para desarrolladores de modelos GPT. Codex admite el inicio de sesión de ChatGPT para el acceso por suscripción o el inicio de sesión con clave de API para el acceso basado en el uso. Codex cloud requiere el inicio de sesión de ChatGPT. OpenAI admite explícitamente el uso de OAuth de suscripción en herramientas y flujos de trabajo externos como OpenClaw.
Opción A: Clave de API de OpenAI (Plataforma OpenAI)
Sección titulada «Opción A: Clave de API de OpenAI (Plataforma OpenAI)»Lo mejor para: acceso directo a la API y facturación basada en el uso. Obtén tu clave de API desde el panel de control de OpenAI.
Configuración de CLI
Sección titulada «Configuración de CLI»openclaw onboard --auth-choice openai-api-key# or non-interactiveopenclaw onboard --openai-api-key "$OPENAI_API_KEY"Fragmento de configuración
Sección titulada «Fragmento de configuración»{ env: { OPENAI_API_KEY: "sk-..." }, agents: { defaults: { model: { primary: "openai/gpt-5.4" } } },}La documentación actual del modelo de API de OpenAI enumera gpt-5.4 y gpt-5.4-pro para el uso directo
de la API de OpenAI. OpenClaw reenvía ambos a través de la ruta de Respuestas openai/*.
OpenClaw suprime intencionalmente la fila obsoleta openai/gpt-5.3-codex-spark,
porque las llamadas directas a la API de OpenAI la rechazan en el tráfico en vivo.
OpenClaw no expone openai/gpt-5.3-codex-spark en la ruta directa de la API
de OpenAI. pi-ai todavía incluye una fila integrada para ese modelo, pero las solicitudes en vivo a la API de OpenAI
actualmente la rechazan. Spark se trata como exclusivo de Codex en OpenClaw.
Opción B: Suscripción a OpenAI Code (Codex)
Sección titulada «Opción B: Suscripción a OpenAI Code (Codex)»Lo mejor para: usar el acceso por suscripción a ChatGPT/Codex en lugar de una clave de API. Codex cloud requiere el inicio de sesión de ChatGPT, mientras que la CLI de Codex admite el inicio de sesión de ChatGPT o con clave de API.
Configuración de CLI (Codex OAuth)
Sección titulada «Configuración de CLI (Codex OAuth)»# Run Codex OAuth in the wizardopenclaw onboard --auth-choice openai-codex
# Or run OAuth directlyopenclaw models auth login --provider openai-codexFragmento de configuración (suscripción a Codex)
Sección titulada «Fragmento de configuración (suscripción a Codex)»{ agents: { defaults: { model: { primary: "openai-codex/gpt-5.4" } } },}La documentación actual de Codex de OpenAI enumera gpt-5.4 como el modelo actual de Codex. OpenClaw
lo asigna a openai-codex/gpt-5.4 para el uso de OAuth de ChatGPT/Codex.
Si tu cuenta de Codex tiene derecho a Codex Spark, OpenClaw también admite:
openai-codex/gpt-5.3-codex-spark
OpenClaw trata Codex Spark como exclusivo de Codex. No expone una ruta
directa de clave de API para openai/gpt-5.3-codex-spark.
OpenClaw también conserva openai-codex/gpt-5.3-codex-spark cuando pi-ai
lo descubre. Trátalo como dependiente de derechos y experimental: Codex Spark es
separado de GPT-5.4 /fast, y su disponibilidad depende de la cuenta de Codex /
ChatGPT iniciada.
Transporte predeterminado
Sección titulada «Transporte predeterminado»OpenClaw utiliza pi-ai para la transmisión de modelos. Tanto para openai/* como para openai-codex/*, el transporte predeterminado es "auto" (primero WebSocket, luego respaldo SSE).
Puede establecer agents.defaults.models.<provider/model>.params.transport:
"sse": forzar SSE"websocket": forzar WebSocket"auto": intentar WebSocket, luego recurrir a SSE
Para openai/* (API de respuestas), OpenClaw también habilita el calentamiento de WebSocket por defecto (openaiWsWarmup: true) cuando se usa el transporte WebSocket.
Documentación relacionada de OpenAI:
{ agents: { defaults: { model: { primary: "openai-codex/gpt-5.4" }, models: { "openai-codex/gpt-5.4": { params: { transport: "auto", }, }, }, }, },}Calentamiento de WebSocket de OpenAI
Sección titulada «Calentamiento de WebSocket de OpenAI»La documentación de OpenAI describe el calentamiento como opcional. OpenClaw lo habilita de forma predeterminada para openai/* para reducir la latencia del primer turno al utilizar el transporte WebSocket.
Deshabilitar calentamiento
Sección titulada «Deshabilitar calentamiento»{ agents: { defaults: { models: { "openai/gpt-5.4": { params: { openaiWsWarmup: false, }, }, }, }, },}Habilitar calentamiento explícitamente
Sección titulada «Habilitar calentamiento explícitamente»{ agents: { defaults: { models: { "openai/gpt-5.4": { params: { openaiWsWarmup: true, }, }, }, }, },}Procesamiento prioritario de OpenAI y Codex
Sección titulada «Procesamiento prioritario de OpenAI y Codex»La API de OpenAI expone el procesamiento prioritario a través de service_tier=priority. En
OpenClaw, configure agents.defaults.models["<provider>/<model>"].params.serviceTier
para pasar ese campo a través de los puntos finales nativos de OpenAI/Codex Responses.
{ agents: { defaults: { models: { "openai/gpt-5.4": { params: { serviceTier: "priority", }, }, "openai-codex/gpt-5.4": { params: { serviceTier: "priority", }, }, }, }, },}Los valores admitidos son auto, default, flex y priority.
OpenClaw reenvía params.serviceTier tanto a las solicitudes openai/* Responses
directas como a las solicitudes openai-codex/* Codex Responses cuando esos modelos apuntan
a los puntos finales nativos de OpenAI/Codex.
Comportamiento importante:
openai/*directo debe apuntar aapi.openai.comopenai-codex/*debe apuntar achatgpt.com/backend-api- si enruta cualquiera de los proveedores a través de otra URL base o proxy, OpenClaw deja
service_tiersin modificar
Modo rápido de OpenAI
Sección titulada «Modo rápido de OpenAI»OpenClaw expone un interruptor de modo rápido compartido para ambas sesiones openai/* y
openai-codex/*:
- Chat/Interfaz de usuario:
/fast status|on|off - Configuración:
agents.defaults.models["<provider>/<model>"].params.fastMode
Cuando el modo rápido está habilitado, OpenClaw lo asigna al procesamiento prioritario de OpenAI:
- las llamadas
openai/*Responses directas aapi.openai.comenvíanservice_tier = "priority" - las llamadas
openai-codex/*Responses achatgpt.com/backend-apitambién envíanservice_tier = "priority" - los valores
service_tierexistentes en el payload se conservan - el modo rápido no reescribe
reasoningotext.verbosity
Ejemplo:
{ agents: { defaults: { models: { "openai/gpt-5.4": { params: { fastMode: true, }, }, "openai-codex/gpt-5.4": { params: { fastMode: true, }, }, }, }, },}Las anulaciones de sesión tienen prioridad sobre la configuración. Borrar la anulación de sesión en la interfaz de usuario de Sesiones devuelve la sesión al valor predeterminado configurado.
Compactación del lado del servidor de OpenAI Responses
Sección titulada «Compactación del lado del servidor de OpenAI Responses»Para modelos directos de OpenAI Responses (openai/* usando api: "openai-responses" con
baseUrl en api.openai.com), OpenClaw ahora habilita automáticamente las sugerencias de carga de compactación del lado del servidor de OpenAI:
- Fuerza
store: true(a menos que la compatibilidad del modelo establezcasupportsStore: false) - Inyecta
context_management: [{ type: "compaction", compact_threshold: ... }]
De forma predeterminada, compact_threshold es 70% del modelo contextWindow (o 80000
cuando no está disponible).
Habilitar la compactación del lado del servidor explícitamente
Sección titulada «Habilitar la compactación del lado del servidor explícitamente»Use esto cuando desee forzar la inyección de context_management en modelos
Responses compatibles (por ejemplo, Azure OpenAI Responses):
{ agents: { defaults: { models: { "azure-openai-responses/gpt-5.4": { params: { responsesServerCompaction: true, }, }, }, }, },}Habilitar con un umbral personalizado
Sección titulada «Habilitar con un umbral personalizado»{ agents: { defaults: { models: { "openai/gpt-5.4": { params: { responsesServerCompaction: true, responsesCompactThreshold: 120000, }, }, }, }, },}Deshabilitar la compactación del lado del servidor
Sección titulada «Deshabilitar la compactación del lado del servidor»{ agents: { defaults: { models: { "openai/gpt-5.4": { params: { responsesServerCompaction: false, }, }, }, }, },}responsesServerCompaction solo controla la inyección de context_management.
Los modelos directos de OpenAI Responses aún fuerzan store: true a menos que la compatibilidad establezca
supportsStore: false.
- Las referencias de modelos siempre usan
provider/model(consulte /concepts/models). - Los detalles de autenticación y las reglas de reutilización están en /concepts/oauth.