Aller au contenu

OpenAI

OpenAI fournit des API de développeur pour les modèles GPT. Codex prend en charge la connexion ChatGPT pour l’accès par abonnement ou la connexion par clé API pour un accès à l’utilisation. Le cloud Codex nécessite une connexion ChatGPT. OpenAI prend explicitement en charge l’utilisation de l’abonnement OAuth dans des outils/workflows externes comme OpenClaw.

Idéal pour : un accès direct à l’API et une facturation à l’utilisation. Obtenez votre clé API à partir du tableau de bord OpenAI.

Fenêtre de terminal
openclaw onboard --auth-choice openai-api-key
# or non-interactive
openclaw onboard --openai-api-key "$OPENAI_API_KEY"
{
env: { OPENAI_API_KEY: "sk-..." },
agents: { defaults: { model: { primary: "openai/gpt-5.4" } } },
}

La documentation actuelle sur les modèles d’OpenAI de API répertorie gpt-5.4 et gpt-5.4-pro pour l’utilisation directe de l’OpenAI API. OpenClaw transmet les deux via le chemin Réponses openai/*. OpenClaw supprime intentionnellement la ligne obsolète openai/gpt-5.3-codex-spark, car les appels directs à l’OpenAI API la rejettent dans le trafic en direct.

OpenClaw n’expose pas openai/gpt-5.3-codex-spark sur le chemin de l’OpenAI API direct. pi-ai inclut toujours une ligne intégrée pour ce modèle, mais les requêtes actuelles à l’OpenAI API la rejettent actuellement. Spark est traité comme exclusif à Codex dans OpenClaw.

Idéal pour : utiliser l’accès par abonnement ChatGPT/Codex au lieu d’une clé API. Le cloud Codex nécessite une connexion ChatGPT, tandis que la CLI Codex prend en charge la connexion ChatGPT ou par clé API.

Fenêtre de terminal
# Run Codex OAuth in the wizard
openclaw onboard --auth-choice openai-codex
# Or run OAuth directly
openclaw models auth login --provider openai-codex
{
agents: { defaults: { model: { primary: "openai-codex/gpt-5.4" } } },
}

La documentation actuelle de Codex de OpenAI répertorie gpt-5.4 comme le modèle Codex actuel. OpenClaw l’associe à openai-codex/gpt-5.4 pour l’utilisation OAuth ChatGPT/Codex.

Si votre compte Codex a droit à Codex Spark, OpenClaw prend également en charge :

  • openai-codex/gpt-5.3-codex-spark

OpenClaw traite Codex Spark comme exclusif à Codex. Il n’expose pas de chemin direct par clé API openai/gpt-5.3-codex-spark.

OpenClaw préserve également openai-codex/gpt-5.3-codex-spark lorsqu’il est découvert par pi-ai. Considérez cela comme dépendant des droits et expérimental : Codex Spark est distinct de GPT-5.4 /fast, et sa disponibilité dépend du compte Codex / ChatGPT connecté.

OpenClaw utilise pi-ai pour le streaming de modèle. Pour openai/* comme pour openai-codex/*, le transport par défaut est "auto" (WebSocket en priorité, puis repli sur SSE).

Vous pouvez définir agents.defaults.models.<provider/model>.params.transport :

  • "sse" : forcer SSE
  • "websocket" : forcer WebSocket
  • "auto" : essayer WebSocket, puis revenir à SSE

Pour openai/* (Responses API), OpenClaw active également le préchauffage WebSocket par défaut (openaiWsWarmup: true) lorsque le transport WebSocket est utilisé.

Documentation OpenAI connexe :

{
agents: {
defaults: {
model: { primary: "openai-codex/gpt-5.4" },
models: {
"openai-codex/gpt-5.4": {
params: {
transport: "auto",
},
},
},
},
},
}

La documentation OpenAI décrit le préchauffage comme optionnel. OpenClaw l’active par défaut pour openai/* afin de réduire la latence du premier tour lors de l’utilisation du transport WebSocket.

{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
openaiWsWarmup: false,
},
},
},
},
},
}
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
openaiWsWarmup: true,
},
},
},
},
},
}

OpenAI’s API exposes le traitement prioritaire via service_tier=priority. Dans OpenClaw, définissez agents.defaults.models["<provider>/<model>"].params.serviceTier pour transmettre ce champ via les points de terminaison OpenAI/Codex Responses natifs.

{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
serviceTier: "priority",
},
},
"openai-codex/gpt-5.4": {
params: {
serviceTier: "priority",
},
},
},
},
},
}

Les valeurs prises en charge sont auto, default, flex et priority.

OpenClaw transmet params.serviceTier aux demandes de réponses openai/* directes et aux demandes de réponses Codex openai-codex/* lorsque ces modèles pointent vers les points de terminaison natifs OpenAI/Codex.

Comportement important :

  • openai/* direct doit cibler api.openai.com
  • openai-codex/* doit cibler chatgpt.com/backend-api
  • si vous acheminez l’un ou l’autre fournisseur via une autre URL de base ou un proxy, OpenClaw laisse service_tier intact

OpenClaw expose un commutateur de mode rapide partagé pour les sessions openai/* et openai-codex/* :

  • Chat/UI : /fast status|on|off
  • Config : agents.defaults.models["<provider>/<model>"].params.fastMode

Lorsque le mode rapide est activé, OpenClaw le mappe au traitement prioritaire OpenAI :

  • les appels Responses openai/* directs vers api.openai.com envoient service_tier = "priority"
  • les appels Responses openai-codex/* vers chatgpt.com/backend-api envoient également service_tier = "priority"
  • les valeurs service_tier de charge utile existantes sont conservées
  • le mode rapide ne réécrit pas reasoning ou text.verbosity

Exemple :

{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
fastMode: true,
},
},
"openai-codex/gpt-5.4": {
params: {
fastMode: true,
},
},
},
},
},
}

Les remplacements de session prévalent sur la configuration. Effacer le remplacement de session dans l’interface Sessions retourne la session à la valeur par défaut configurée.

Pour les modèles OpenAI Responses directs (openai/* utilisant api: "openai-responses" avec baseUrl sur api.openai.com), OpenClaw active désormais automatiquement les indicateurs de charge utile de compactage côté serveur OpenAI :

  • Force store: true (sauf si la compatibilité du modèle définit supportsStore: false)
  • Injecte context_management: [{ type: "compaction", compact_threshold: ... }]

Par défaut, compact_threshold est 70% du modèle contextWindow (ou 80000 lorsqu’il n’est pas disponible).

Activer explicitement le compactage côté serveur

Section intitulée « Activer explicitement le compactage côté serveur »

Utilisez ceci lorsque vous souhaitez forcer l’injection de context_management sur les modèles Responses compatibles (par exemple Azure OpenAI Responses) :

{
agents: {
defaults: {
models: {
"azure-openai-responses/gpt-5.4": {
params: {
responsesServerCompaction: true,
},
},
},
},
},
}
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
responsesServerCompaction: true,
responsesCompactThreshold: 120000,
},
},
},
},
},
}
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
responsesServerCompaction: false,
},
},
},
},
},
}

responsesServerCompaction contrôle uniquement l’injection de context_management. Les modèles OpenAI Responses directs forcent toujours store: true sauf si la compatibilité définit supportsStore: false.

  • Les références de modèle utilisent toujours provider/model (voir /concepts/models).
  • Les détails d’authentification + les règles de réutilisation se trouvent dans /concepts/oauth.