OpenAI
OpenAI
Section titled “OpenAI”OpenAI 為 GPT 模型提供開發者 API。Codex 支援透過 ChatGPT 登入 進行訂閱存取,或透過 API 金鑰 登入進行按用量計費的存取。Codex cloud 需要使用 ChatGPT 登入。 OpenAI 明確支援在像 OpenClaw 這樣的外部工具/工作流程中使用訂閱 OAuth。
選項 A:OpenAI API 金鑰 (OpenAI Platform)
Section titled “選項 A:OpenAI API 金鑰 (OpenAI Platform)”最適合用於: 直接 API 存取和按用量計費。 請從 OpenAI 儀表板取得您的 API 金鑰。
CLI 設定
Section titled “CLI 設定”openclaw onboard --auth-choice openai-api-key# or non-interactiveopenclaw onboard --openai-api-key "$OPENAI_API_KEY"{ env: { OPENAI_API_KEY: "sk-..." }, agents: { defaults: { model: { primary: "openai/gpt-5.4" } } },}OpenAI 目前的 API 模型文件列出了 gpt-5.4 和 gpt-5.4-pro 用於直接
OpenAI API 使用。OpenClaw 會透過 openai/* 回應路徑轉發這兩者。
OpenClaw 故意抑制了過時的 openai/gpt-5.3-codex-spark 項目,
因為直接的 OpenAI API 呼叫會在實際流量中拒絕它。
OpenClaw 並未在直接的 OpenAI
API 路徑上公開 openai/gpt-5.3-codex-spark。pi-ai 仍然為該模型提供內建項目,但目前的即時 OpenAI API
請求會拒絕它。Spark 在 OpenClaw 中被視為僅限 Codex 使用。
選項 B:OpenAI Code (Codex) 訂閱
Section titled “選項 B:OpenAI Code (Codex) 訂閱”最適合用於: 使用 ChatGPT/Codex 訂閱存取來代替 API 金鑰。 Codex cloud 需要 ChatGPT 登入,而 Codex CLI 支援 ChatGPT 或 API 金鑰登入。
CLI 設定 (Codex OAuth)
Section titled “CLI 設定 (Codex OAuth)”# Run Codex OAuth in the wizardopenclaw onboard --auth-choice openai-codex
# Or run OAuth directlyopenclaw models auth login --provider openai-codex設定片段 (Codex 訂閱)
Section titled “設定片段 (Codex 訂閱)”{ agents: { defaults: { model: { primary: "openai-codex/gpt-5.4" } } },}OpenAI 目前的 Codex 文件將 gpt-5.4 列為目前的 Codex 模型。OpenClaw
會將其對應到 openai-codex/gpt-5.4 以用於 ChatGPT/Codex OAuth 使用。
如果您的 Codex 帳戶有權使用 Codex Spark,OpenClaw 也支援:
openai-codex/gpt-5.3-codex-spark
OpenClaw 將 Codex Spark 視為僅限 Codex 使用。它不會公開直接的
openai/gpt-5.3-codex-spark API 金鑰路徑。
當 pi-ai
發現 openai-codex/gpt-5.3-codex-spark 時,OpenClaw 也會加以保留。請將其視為依賴權限且屬實驗性功能:Codex Spark 與
GPT-5.4 /fast 是分開的,且可用性取決於登入的 Codex /
ChatGPT 帳戶。
OpenClaw 使用 pi-ai 進行模型串流。對於 openai/* 和
openai-codex/*,預設傳輸方式為 "auto"(優先使用 WebSocket,然後 SSE
備援)。
您可以設定 agents.defaults.models.<provider/model>.params.transport:
"sse":強制使用 SSE"websocket":強制使用 WebSocket"auto":嘗試 WebSocket,然後回退到 SSE
對於 openai/* (Responses API),當使用 WebSocket 傳輸時,OpenClaw 預設也會啟用 WebSocket 預熱
(openaiWsWarmup: true)。
相關 OpenAI 文件:
{ agents: { defaults: { model: { primary: "openai-codex/gpt-5.4" }, models: { "openai-codex/gpt-5.4": { params: { transport: "auto", }, }, }, }, },}OpenAI WebSocket 預熱
Section titled “OpenAI WebSocket 預熱”OpenAI 文件將預熱描述為可選的。OpenClaw 預設會為 openai/* 啟用它,
以在使用 WebSocket 傳輸時減少第一輪的延遲。
{ agents: { defaults: { models: { "openai/gpt-5.4": { params: { openaiWsWarmup: false, }, }, }, }, },}明確啟用預熱
Section titled “明確啟用預熱”{ agents: { defaults: { models: { "openai/gpt-5.4": { params: { openaiWsWarmup: true, }, }, }, }, },}OpenAI 和 Codex 優先處理
Section titled “OpenAI 和 Codex 優先處理”OpenAI 的 API 透過 service_tier=priority 公開優先處理功能。在
OpenClaw 中,設定 agents.defaults.models["<provider>/<model>"].params.serviceTier
即可在原生 OpenAI/Codex Responses 端點上傳遞該欄位。
{ agents: { defaults: { models: { "openai/gpt-5.4": { params: { serviceTier: "priority", }, }, "openai-codex/gpt-5.4": { params: { serviceTier: "priority", }, }, }, }, },}支援的值為 auto、default、flex 和 priority。
當這些模型指向原生 OpenAI/Codex 端點時,OpenClaw 會將 params.serviceTier 轉發至直接的 openai/* Responses
請求以及 openai-codex/* Codex Responses 請求。
重要行為:
- 直接
openai/*必須指向api.openai.com openai-codex/*必須指向chatgpt.com/backend-api- 如果您將任一供應商透過其他基礎 URL 或 Proxy 路由,OpenClaw 將保持
service_tier不變
OpenAI 快速模式
Section titled “OpenAI 快速模式”OpenClaw 為 openai/* 和
openai-codex/* 工作階段公開了一個共用的快速模式切換開關:
- Chat/UI:
/fast status|on|off - Config:
agents.defaults.models["<provider>/<model>"].params.fastMode
啟用快速模式時,OpenClaw 會將其對應至 OpenAI 優先處理:
- 對
api.openai.com的直接openai/*Responses 呼叫會發送service_tier = "priority" - 對
chatgpt.com/backend-api的openai-codex/*Responses 呼叫也會發送service_tier = "priority" - 現有的 payload
service_tier值將被保留 - 快速模式不會重寫
reasoning或text.verbosity
範例:
{ agents: { defaults: { models: { "openai/gpt-5.4": { params: { fastMode: true, }, }, "openai-codex/gpt-5.4": { params: { fastMode: true, }, }, }, }, },}工作階段覆蓋優先於設定。在 Sessions UI 中清除工作階段覆蓋 會將工作階段恢復為設定的預設值。
OpenAI Responses 伺服器端壓縮
Section titled “OpenAI Responses 伺服器端壓縮”對於直接的 OpenAI Responses 模型(openai/* 使用 api: "openai-responses" 搭配 baseUrl 於 api.openai.com),OpenClaw 現在會自動啟用 OpenAI 伺服器端壓縮負載提示:
- 強制
store: true(除非模型相容性設定supportsStore: false) - 注入
context_management: [{ type: "compaction", compact_threshold: ... }]
預設情況下,compact_threshold 是模型 contextWindow 的 70%(或當不可用時為 80000)。
明確啟用伺服器端壓縮
Section titled “明確啟用伺服器端壓縮”當您想要在相容的 Responses 模型上強制注入 context_management 時使用此選項(例如 Azure OpenAI Responses):
{ agents: { defaults: { models: { "azure-openai-responses/gpt-5.4": { params: { responsesServerCompaction: true, }, }, }, }, },}使用自訂閾值啟用
Section titled “使用自訂閾值啟用”{ agents: { defaults: { models: { "openai/gpt-5.4": { params: { responsesServerCompaction: true, responsesCompactThreshold: 120000, }, }, }, }, },}停用伺服器端壓縮
Section titled “停用伺服器端壓縮”{ agents: { defaults: { models: { "openai/gpt-5.4": { params: { responsesServerCompaction: false, }, }, }, }, },}responsesServerCompaction 僅控制 context_management 注入。
直接的 OpenAI Responses 模型仍會強制 store: true,除非相容性設定
supportsStore: false。
- 模型參照始終使用
provider/model(請參閱 /concepts/models)。 - 驗證詳細資訊 + 重用規則位於 /concepts/oauth。