Skip to content

OpenAI

OpenAI 為 GPT 模型提供開發者 API。Codex 支援透過 ChatGPT 登入 進行訂閱存取,或透過 API 金鑰 登入進行按用量計費的存取。Codex cloud 需要使用 ChatGPT 登入。 OpenAI 明確支援在像 OpenClaw 這樣的外部工具/工作流程中使用訂閱 OAuth。

選項 A:OpenAI API 金鑰 (OpenAI Platform)

Section titled “選項 A:OpenAI API 金鑰 (OpenAI Platform)”

最適合用於: 直接 API 存取和按用量計費。 請從 OpenAI 儀表板取得您的 API 金鑰。

Terminal window
openclaw onboard --auth-choice openai-api-key
# or non-interactive
openclaw onboard --openai-api-key "$OPENAI_API_KEY"
{
env: { OPENAI_API_KEY: "sk-..." },
agents: { defaults: { model: { primary: "openai/gpt-5.4" } } },
}

OpenAI 目前的 API 模型文件列出了 gpt-5.4gpt-5.4-pro 用於直接 OpenAI API 使用。OpenClaw 會透過 openai/* 回應路徑轉發這兩者。 OpenClaw 故意抑制了過時的 openai/gpt-5.3-codex-spark 項目, 因為直接的 OpenAI API 呼叫會在實際流量中拒絕它。

OpenClaw 並未在直接的 OpenAI API 路徑上公開 openai/gpt-5.3-codex-sparkpi-ai 仍然為該模型提供內建項目,但目前的即時 OpenAI API 請求會拒絕它。Spark 在 OpenClaw 中被視為僅限 Codex 使用。

最適合用於: 使用 ChatGPT/Codex 訂閱存取來代替 API 金鑰。 Codex cloud 需要 ChatGPT 登入,而 Codex CLI 支援 ChatGPT 或 API 金鑰登入。

Terminal window
# Run Codex OAuth in the wizard
openclaw onboard --auth-choice openai-codex
# Or run OAuth directly
openclaw models auth login --provider openai-codex
{
agents: { defaults: { model: { primary: "openai-codex/gpt-5.4" } } },
}

OpenAI 目前的 Codex 文件將 gpt-5.4 列為目前的 Codex 模型。OpenClaw 會將其對應到 openai-codex/gpt-5.4 以用於 ChatGPT/Codex OAuth 使用。

如果您的 Codex 帳戶有權使用 Codex Spark,OpenClaw 也支援:

  • openai-codex/gpt-5.3-codex-spark

OpenClaw 將 Codex Spark 視為僅限 Codex 使用。它不會公開直接的 openai/gpt-5.3-codex-spark API 金鑰路徑。

pi-ai 發現 openai-codex/gpt-5.3-codex-spark 時,OpenClaw 也會加以保留。請將其視為依賴權限且屬實驗性功能:Codex Spark 與 GPT-5.4 /fast 是分開的,且可用性取決於登入的 Codex / ChatGPT 帳戶。

OpenClaw 使用 pi-ai 進行模型串流。對於 openai/*openai-codex/*,預設傳輸方式為 "auto"(優先使用 WebSocket,然後 SSE 備援)。

您可以設定 agents.defaults.models.<provider/model>.params.transport

  • "sse":強制使用 SSE
  • "websocket":強制使用 WebSocket
  • "auto":嘗試 WebSocket,然後回退到 SSE

對於 openai/* (Responses API),當使用 WebSocket 傳輸時,OpenClaw 預設也會啟用 WebSocket 預熱 (openaiWsWarmup: true)。

相關 OpenAI 文件:

{
agents: {
defaults: {
model: { primary: "openai-codex/gpt-5.4" },
models: {
"openai-codex/gpt-5.4": {
params: {
transport: "auto",
},
},
},
},
},
}

OpenAI 文件將預熱描述為可選的。OpenClaw 預設會為 openai/* 啟用它, 以在使用 WebSocket 傳輸時減少第一輪的延遲。

{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
openaiWsWarmup: false,
},
},
},
},
},
}
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
openaiWsWarmup: true,
},
},
},
},
},
}

OpenAI 的 API 透過 service_tier=priority 公開優先處理功能。在 OpenClaw 中,設定 agents.defaults.models["<provider>/<model>"].params.serviceTier 即可在原生 OpenAI/Codex Responses 端點上傳遞該欄位。

{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
serviceTier: "priority",
},
},
"openai-codex/gpt-5.4": {
params: {
serviceTier: "priority",
},
},
},
},
},
}

支援的值為 autodefaultflexpriority

當這些模型指向原生 OpenAI/Codex 端點時,OpenClaw 會將 params.serviceTier 轉發至直接的 openai/* Responses 請求以及 openai-codex/* Codex Responses 請求。

重要行為:

  • 直接 openai/* 必須指向 api.openai.com
  • openai-codex/* 必須指向 chatgpt.com/backend-api
  • 如果您將任一供應商透過其他基礎 URL 或 Proxy 路由,OpenClaw 將保持 service_tier 不變

OpenClaw 為 openai/*openai-codex/* 工作階段公開了一個共用的快速模式切換開關:

  • Chat/UI:/fast status|on|off
  • Config:agents.defaults.models["<provider>/<model>"].params.fastMode

啟用快速模式時,OpenClaw 會將其對應至 OpenAI 優先處理:

  • api.openai.com 的直接 openai/* Responses 呼叫會發送 service_tier = "priority"
  • chatgpt.com/backend-apiopenai-codex/* Responses 呼叫也會發送 service_tier = "priority"
  • 現有的 payload service_tier 值將被保留
  • 快速模式不會重寫 reasoningtext.verbosity

範例:

{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
fastMode: true,
},
},
"openai-codex/gpt-5.4": {
params: {
fastMode: true,
},
},
},
},
},
}

工作階段覆蓋優先於設定。在 Sessions UI 中清除工作階段覆蓋 會將工作階段恢復為設定的預設值。

對於直接的 OpenAI Responses 模型(openai/* 使用 api: "openai-responses" 搭配 baseUrlapi.openai.com),OpenClaw 現在會自動啟用 OpenAI 伺服器端壓縮負載提示:

  • 強制 store: true(除非模型相容性設定 supportsStore: false
  • 注入 context_management: [{ type: "compaction", compact_threshold: ... }]

預設情況下,compact_threshold 是模型 contextWindow70%(或當不可用時為 80000)。

當您想要在相容的 Responses 模型上強制注入 context_management 時使用此選項(例如 Azure OpenAI Responses):

{
agents: {
defaults: {
models: {
"azure-openai-responses/gpt-5.4": {
params: {
responsesServerCompaction: true,
},
},
},
},
},
}
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
responsesServerCompaction: true,
responsesCompactThreshold: 120000,
},
},
},
},
},
}
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
responsesServerCompaction: false,
},
},
},
},
},
}

responsesServerCompaction 僅控制 context_management 注入。 直接的 OpenAI Responses 模型仍會強制 store: true,除非相容性設定 supportsStore: false