Ir al contenido

OpenAI

OpenAI proporciona API para desarrolladores de modelos GPT. Codex admite el inicio de sesión de ChatGPT para el acceso por suscripción o el inicio de sesión con clave de API para el acceso basado en el uso. Codex cloud requiere el inicio de sesión de ChatGPT. OpenAI admite explícitamente el uso de OAuth de suscripción en herramientas y flujos de trabajo externos como OpenClaw.

Opción A: Clave de API de OpenAI (Plataforma OpenAI)

Sección titulada «Opción A: Clave de API de OpenAI (Plataforma OpenAI)»

Lo mejor para: acceso directo a la API y facturación basada en el uso. Obtén tu clave de API desde el panel de control de OpenAI.

Ventana de terminal
openclaw onboard --auth-choice openai-api-key
# or non-interactive
openclaw onboard --openai-api-key "$OPENAI_API_KEY"
{
env: { OPENAI_API_KEY: "sk-..." },
agents: { defaults: { model: { primary: "openai/gpt-5.4" } } },
}

La documentación actual del modelo de API de OpenAI enumera gpt-5.4 y gpt-5.4-pro para el uso directo de la API de OpenAI. OpenClaw reenvía ambos a través de la ruta de Respuestas openai/*. OpenClaw suprime intencionalmente la fila obsoleta openai/gpt-5.3-codex-spark, porque las llamadas directas a la API de OpenAI la rechazan en el tráfico en vivo.

OpenClaw no expone openai/gpt-5.3-codex-spark en la ruta directa de la API de OpenAI. pi-ai todavía incluye una fila integrada para ese modelo, pero las solicitudes en vivo a la API de OpenAI actualmente la rechazan. Spark se trata como exclusivo de Codex en OpenClaw.

Opción B: Suscripción a OpenAI Code (Codex)

Sección titulada «Opción B: Suscripción a OpenAI Code (Codex)»

Lo mejor para: usar el acceso por suscripción a ChatGPT/Codex en lugar de una clave de API. Codex cloud requiere el inicio de sesión de ChatGPT, mientras que la CLI de Codex admite el inicio de sesión de ChatGPT o con clave de API.

Ventana de terminal
# Run Codex OAuth in the wizard
openclaw onboard --auth-choice openai-codex
# Or run OAuth directly
openclaw models auth login --provider openai-codex

Fragmento de configuración (suscripción a Codex)

Sección titulada «Fragmento de configuración (suscripción a Codex)»
{
agents: { defaults: { model: { primary: "openai-codex/gpt-5.4" } } },
}

La documentación actual de Codex de OpenAI enumera gpt-5.4 como el modelo actual de Codex. OpenClaw lo asigna a openai-codex/gpt-5.4 para el uso de OAuth de ChatGPT/Codex.

Si tu cuenta de Codex tiene derecho a Codex Spark, OpenClaw también admite:

  • openai-codex/gpt-5.3-codex-spark

OpenClaw trata Codex Spark como exclusivo de Codex. No expone una ruta directa de clave de API para openai/gpt-5.3-codex-spark.

OpenClaw también conserva openai-codex/gpt-5.3-codex-spark cuando pi-ai lo descubre. Trátalo como dependiente de derechos y experimental: Codex Spark es separado de GPT-5.4 /fast, y su disponibilidad depende de la cuenta de Codex / ChatGPT iniciada.

OpenClaw utiliza pi-ai para la transmisión de modelos. Tanto para openai/* como para openai-codex/*, el transporte predeterminado es "auto" (primero WebSocket, luego respaldo SSE).

Puede establecer agents.defaults.models.<provider/model>.params.transport:

  • "sse": forzar SSE
  • "websocket": forzar WebSocket
  • "auto": intentar WebSocket, luego recurrir a SSE

Para openai/* (API de respuestas), OpenClaw también habilita el calentamiento de WebSocket por defecto (openaiWsWarmup: true) cuando se usa el transporte WebSocket.

Documentación relacionada de OpenAI:

{
agents: {
defaults: {
model: { primary: "openai-codex/gpt-5.4" },
models: {
"openai-codex/gpt-5.4": {
params: {
transport: "auto",
},
},
},
},
},
}

La documentación de OpenAI describe el calentamiento como opcional. OpenClaw lo habilita de forma predeterminada para openai/* para reducir la latencia del primer turno al utilizar el transporte WebSocket.

{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
openaiWsWarmup: false,
},
},
},
},
},
}
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
openaiWsWarmup: true,
},
},
},
},
},
}

La API de OpenAI expone el procesamiento prioritario a través de service_tier=priority. En OpenClaw, configure agents.defaults.models["<provider>/<model>"].params.serviceTier para pasar ese campo a través de los puntos finales nativos de OpenAI/Codex Responses.

{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
serviceTier: "priority",
},
},
"openai-codex/gpt-5.4": {
params: {
serviceTier: "priority",
},
},
},
},
},
}

Los valores admitidos son auto, default, flex y priority.

OpenClaw reenvía params.serviceTier tanto a las solicitudes openai/* Responses directas como a las solicitudes openai-codex/* Codex Responses cuando esos modelos apuntan a los puntos finales nativos de OpenAI/Codex.

Comportamiento importante:

  • openai/* directo debe apuntar a api.openai.com
  • openai-codex/* debe apuntar a chatgpt.com/backend-api
  • si enruta cualquiera de los proveedores a través de otra URL base o proxy, OpenClaw deja service_tier sin modificar

OpenClaw expone un interruptor de modo rápido compartido para ambas sesiones openai/* y openai-codex/*:

  • Chat/Interfaz de usuario: /fast status|on|off
  • Configuración: agents.defaults.models["<provider>/<model>"].params.fastMode

Cuando el modo rápido está habilitado, OpenClaw lo asigna al procesamiento prioritario de OpenAI:

  • las llamadas openai/* Responses directas a api.openai.com envían service_tier = "priority"
  • las llamadas openai-codex/* Responses a chatgpt.com/backend-api también envían service_tier = "priority"
  • los valores service_tier existentes en el payload se conservan
  • el modo rápido no reescribe reasoning o text.verbosity

Ejemplo:

{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
fastMode: true,
},
},
"openai-codex/gpt-5.4": {
params: {
fastMode: true,
},
},
},
},
},
}

Las anulaciones de sesión tienen prioridad sobre la configuración. Borrar la anulación de sesión en la interfaz de usuario de Sesiones devuelve la sesión al valor predeterminado configurado.

Compactación del lado del servidor de OpenAI Responses

Sección titulada «Compactación del lado del servidor de OpenAI Responses»

Para modelos directos de OpenAI Responses (openai/* usando api: "openai-responses" con baseUrl en api.openai.com), OpenClaw ahora habilita automáticamente las sugerencias de carga de compactación del lado del servidor de OpenAI:

  • Fuerza store: true (a menos que la compatibilidad del modelo establezca supportsStore: false)
  • Inyecta context_management: [{ type: "compaction", compact_threshold: ... }]

De forma predeterminada, compact_threshold es 70% del modelo contextWindow (o 80000 cuando no está disponible).

Habilitar la compactación del lado del servidor explícitamente

Sección titulada «Habilitar la compactación del lado del servidor explícitamente»

Use esto cuando desee forzar la inyección de context_management en modelos Responses compatibles (por ejemplo, Azure OpenAI Responses):

{
agents: {
defaults: {
models: {
"azure-openai-responses/gpt-5.4": {
params: {
responsesServerCompaction: true,
},
},
},
},
},
}
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
responsesServerCompaction: true,
responsesCompactThreshold: 120000,
},
},
},
},
},
}

Deshabilitar la compactación del lado del servidor

Sección titulada «Deshabilitar la compactación del lado del servidor»
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
responsesServerCompaction: false,
},
},
},
},
},
}

responsesServerCompaction solo controla la inyección de context_management. Los modelos directos de OpenAI Responses aún fuerzan store: true a menos que la compatibilidad establezca supportsStore: false.

  • Las referencias de modelos siempre usan provider/model (consulte /concepts/models).
  • Los detalles de autenticación y las reglas de reutilización están en /concepts/oauth.