模型提供者
本頁面涵蓋 LLM/模型提供商(不包括 WhatsApp/Telegram 等聊天頻道)。 關於模型選擇規則,請參閱 /concepts/models。
- 模型引用使用
provider/model(例如:opencode/claude-opus-4-6)。 - 如果您設定
agents.defaults.models,它將成為允許清單。 - CLI 輔助工具:
openclaw onboard、openclaw models list、openclaw models set <provider/model>。 - 提供者外掛程式可以透過
registerProvider({ catalog })注入模型目錄; OpenClaw 會在寫入models.json之前將該輸出合併到models.providers中。 - Provider manifests 可以宣告
providerAuthEnvVars,這樣基於通用環境變數的 auth probes 就不需要載入 plugin runtime。剩餘的 core env-var map 現在僅供 non-plugin/core providers 以及少數 generic-precedence 案例使用,例如 Anthropic API-key-first onboarding。 - 供應商外掛程式也可以透過
resolveDynamicModel、prepareDynamicModel、normalizeResolvedModel、capabilities、prepareExtraParams、wrapStreamFn、formatApiKey、refreshOAuth、buildAuthDoctorHint、isCacheTtlEligible、buildMissingAuthMessage、suppressBuiltInModel、augmentModelCatalog、isBinaryThinking、supportsXHighThinking、resolveDefaultThinkingLevel、isModernModelRef、prepareRuntimeAuth、resolveUsageAuth和fetchUsageSnapshot來擁有供應商執行時期行為。 - 注意:提供商運行時
capabilities是共享的運行器元數據(提供商 系列、轉錄/工具特性、傳輸/緩存提示)。它與公共能力模型 不同,後者描述了外掛程式註冊的內容(文字推理、語音等)。
外掛擁有的供應商行為
Section titled “外掛擁有的供應商行為”供應商外掛現在可以擁有大部分供應商特定的邏輯,而 OpenClaw 則保留通用的推斷循環。
典型分工:
auth[].run/auth[].runNonInteractive:provider 擁有openclaw onboard、openclaw models auth和 headless 設定的入門/登入流程wizard.setup/wizard.modelPicker:provider 擁有 auth-choice 標籤、舊版別名、入門 allowlist 提示,以及在入門/模型選擇器中的設定項目catalog:provider 出現在models.providers中resolveDynamicModel:provider 接受尚未出現在本地靜態目錄中的模型 IDprepareDynamicModel:提供商在重試之前需要重新整理元資料 dynamic resolutionnormalizeResolvedModel:提供商需要傳輸或基礎 URL 重寫capabilities:提供商發佈文字記錄/工具/提供商系列特性prepareExtraParams:提供商設定預設值或正規化各模型的請求參數wrapStreamFn:提供商套用請求標頭/內文/模型相容性包裝器formatApiKey:提供商將儲存的設定檔格式化為執行階段 傳輸所需的apiKey字串refreshOAuth:當共用的pi-ai重新整理器不足時,提供商擁有 OAuth 重新整理權buildAuthDoctorHint:當 OAuth 重新整理失敗時, 提供商會附加修復指引isCacheTtlEligible:提供者決定哪些上游模型 ID 支援 prompt-cache TTLbuildMissingAuthMessage:提供者將通用的 auth-store 錯誤 替換為提供者特定的恢復提示suppressBuiltInModel:提供者隱藏過時的上游行,並且可以針對直接解析失敗返回 供應商擁有的錯誤augmentModelCatalog:提供者在 發現和配置合併之後附加合成/最終目錄行isBinaryThinking:提供者擁有二進位開關思考 UXsupportsXHighThinking:提供者將選定的模型選入xhighresolveDefaultThinkingLevel:提供者擁有模型系列的預設/think策略isModernModelRef:提供者擁有即時/冒煙首選模型匹配prepareRuntimeAuth:提供者將已設定的憑證轉換為短期執行時段權杖resolveUsageAuth:提供者解析/usage的使用/配額憑證以及相關狀態/報告介面fetchUsageSnapshot:提供者負責使用量端點的擷取/解析,而核心仍負責摘要外殼和格式化
目前附帶的範例:
anthropic:Claude 4.6 向前相容回退、驗證修復提示、使用量端點擷取以及快取 TTL/提供者家族元資料openrouter:透傳模型 ID、請求包裝器、提供者功能提示以及快取 TTL 原則github-copilot:上架/裝置登入、向前相容模型回退、Claude 思考過程文字記錄提示、執行時段權杖交換以及使用量端點擷取openai:GPT-5.4 向前相容回退、直接 OpenAI 傳輸正規化、感知 Codex 的缺少認證提示、Spark 抑制、合成 OpenAI/Codex 目錄列、思考/即時模型策略,以及提供者系列元資料google和google-gemini-cli:Gemini 3.1 向前相容回退與現代模型匹配;Gemini CLI OAuth 也負責認證設定檔 token 格式化、使用量 token 解析,以及為使用量介面取得配額端點moonshot:共用傳輸、外掛擁有的思考載荷正規化kilocode:共用傳輸、外掛擁有的請求標頭、推理載荷正規化、Gemini 轉錄提示,以及快取 TTL 策略zai: GLM-5 向後相容回退、tool_stream預設值、快取 TTL 原則、二元思維/即時模型原則,以及使用授權與配額獲取mistral、opencode和opencode-go: 外掛擁有的能力元資料byteplus、cloudflare-ai-gateway、huggingface、kimi-coding、modelstudio、nvidia、qianfan、synthetic、together、venice、vercel-ai-gateway和volcengine: 僅限外掛擁有的目錄minimax和xiaomi:外掛擁有的目錄加上使用授權/快照邏輯
隨附的 openai 外掛現在擁有這兩個提供者 ID:openai 和 openai-codex。
這涵蓋了仍適用 OpenClaw 標準傳輸的提供者。如果需要完全自訂的請求執行器,則屬於另一個更深層的擴充介面。
API 金鑰輪替
Section titled “API 金鑰輪替”- 支援所選提供者的通用提供者輪替。
- 透過以下方式設定多個金鑰:
OPENCLAW_LIVE_<PROVIDER>_KEY(單一即時覆寫,優先級最高)<PROVIDER>_API_KEYS(逗號或分號分隔清單)<PROVIDER>_API_KEY(主要金鑰)<PROVIDER>_API_KEY_*(編號清單,例如<PROVIDER>_API_KEY_1)
- 對於 Google 提供商,
GOOGLE_API_KEY也會包含在內作為後備。 - 金鑰選擇順序會保留優先順序並對數值進行去重。
- 請求僅在收到速率限制回應(例如
429、rate_limit、quota、resource exhausted)時才會使用下一個金鑰重試。 - 非速率限制的失敗會立即失敗;不會嘗試金鑰輪替。
- 當所有候選金鑰都失敗時,會傳回最後一次嘗試的最終錯誤。
內建提供商(pi-ai catalog)
Section titled “內建提供商(pi-ai catalog)”OpenClaw 隨附 pi‑ai catalog。這些提供商不需要
models.providers 設定;只需設定身份驗證並選擇模型即可。
OpenAI
Section titled “OpenAI”- 提供商:
openai - 驗證:
OPENAI_API_KEY - 可選輪替:
OPENAI_API_KEYS、OPENAI_API_KEY_1、OPENAI_API_KEY_2,加上OPENCLAW_LIVE_OPENAI_KEY(單次覆寫) - 範例模型:
openai/gpt-5.4、openai/gpt-5.4-pro - CLI:
openclaw onboard --auth-choice openai-api-key - 預設傳輸方式為
auto(優先使用 WebSocket,SSE 為備用) - 透過
agents.defaults.models["openai/<model>"].params.transport逐個模型覆寫("sse"、"websocket"或"auto") - OpenAI Responses WebSocket 預熱預設透過
params.openaiWsWarmup啟用(true/false) - OpenAI 優先處理可透過
agents.defaults.models["openai/<model>"].params.serviceTier啟用 /fast和params.fastMode將直接的openai/*Responses 請求映射到api.openai.com上的service_tier=priority- 當您需要明確的層級而不是共享的
/fast切換時,請使用params.serviceTier openai/gpt-5.3-codex-spark在 OpenClaw 中被故意抑制,因為實時 OpenAI API 拒絕它;Spark 被視為僅適用於 Codex
{ agents: { defaults: { model: { primary: "openai/gpt-5.4" } } },}Anthropic
Section titled “Anthropic”- 提供商:
anthropic - 驗證:
ANTHROPIC_API_KEY或claude setup-token - 可選輪換:
ANTHROPIC_API_KEYS、ANTHROPIC_API_KEY_1、ANTHROPIC_API_KEY_2,以及OPENCLAW_LIVE_ANTHROPIC_KEY(單次覆蓋) - 示例模型:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice token(粘貼 setup-token)或openclaw models auth paste-token --provider anthropic - 直接的公共 Anthropic 請求支持共享的
/fast切換和params.fastMode,包括發送到api.anthropic.com的 API 密鑰和 OAuth 驗證流量;OpenClaw 將其映射到 Anthropicservice_tier(auto與standard_only) - 政策說明:支援 setup-token 係出於技術相容性考量;Anthropic 過去曾阻擋 Claude Code 以外的部分訂閱使用方式。請確認目前的 Anthropic 條款,並根據您的風險承受能力做出決定。
- 建議:相較於訂閱版 setup-token 驗證,使用 Anthropic API 金鑰驗證是更安全且受推薦的方式。
{ agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },}OpenAI Code (Codex)
Section titled “OpenAI Code (Codex)”- 提供商:
openai-codex - 驗證方式:OAuth (ChatGPT)
- 示例模型:
openai-codex/gpt-5.4 - CLI:
openclaw onboard --auth-choice openai-codex或openclaw models auth login --provider openai-codex - 默認傳輸為
auto(WebSocket 優先,SSE 後備) - 通過
agents.defaults.models["openai-codex/<model>"].params.transport逐個模型覆蓋("sse"、"websocket"或"auto") params.serviceTier也會在原生 Codex 回應請求 (chatgpt.com/backend-api) 中被轉發- 與直接
openai/*共用相同的/fast切換開關和params.fastMode設定;OpenClaw 將其對應到service_tier=priority - 當 Codex OAuth 目錄公開
openai-codex/gpt-5.3-codex-spark時,它仍可供使用;視授權而定 - 政策說明:明確支援將 OpenAI Codex OAuth 用於外部工具/工作流程,例如 OpenClaw。
{ agents: { defaults: { model: { primary: "openai-codex/gpt-5.4" } } },}OpenCode
Section titled “OpenCode”- 驗證:
OPENCODE_API_KEY(或OPENCODE_ZEN_API_KEY) - Zen 執行期提供者:
opencode - Go 執行期提供者:
opencode-go - 範例模型:
opencode/claude-opus-4-6、opencode-go/kimi-k2.5 - CLI:
openclaw onboard --auth-choice opencode-zen或openclaw onboard --auth-choice opencode-go
{ agents: { defaults: { model: { primary: "opencode/claude-opus-4-6" } } },}Google Gemini (API 金鑰)
Section titled “Google Gemini (API 金鑰)”- 提供者:
google - 驗證:
GEMINI_API_KEY - 選用輪替:
GEMINI_API_KEYS、GEMINI_API_KEY_1、GEMINI_API_KEY_2、GOOGLE_API_KEY備援,以及OPENCLAW_LIVE_GEMINI_KEY(單次覆寫) - 範例模型:
google/gemini-3.1-pro-preview、google/gemini-3-flash-preview - 相容性:使用
google/gemini-3.1-flash-preview的舊版 OpenClaw 設定會正規化為google/gemini-3-flash-preview - CLI:
openclaw onboard --auth-choice gemini-api-key
Google Vertex 和 Gemini CLI
Section titled “Google Vertex 和 Gemini CLI”- 提供者:
google-vertex、google-gemini-cli - 驗證:Vertex 使用 gcloud ADC;Gemini CLI 使用其 OAuth 流程
- 注意:OpenClaw 中的 Gemini CLI OAuth 是非官方整合。部分使用者回報在使用第三方用戶端後遭遇 Google 帳號限制。請詳閱 Google 條款,若選擇繼續請使用非關鍵帳號。
- Gemini CLI OAuth 隨附的
google外掛程式的一部分提供。- 啟用:
openclaw plugins enable google - 登入:
openclaw models auth login --provider google-gemini-cli --set-default - 注意:您不需要將用戶端 ID 或密鑰貼上至
openclaw.json。CLI 登入流程會將權杖儲存在閘道主機上的驗證設定檔中。
- 啟用:
Z.AI (GLM)
Section titled “Z.AI (GLM)”- 提供商:
zai - 驗證:
ZAI_API_KEY - 範例模型:
zai/glm-5 - CLI:
openclaw onboard --auth-choice zai-api-key- 別名:
z.ai/*和z-ai/*正規化為zai/*
- 別名:
Vercel AI Gateway
Section titled “Vercel AI Gateway”- 提供商:
vercel-ai-gateway - 驗證:
AI_GATEWAY_API_KEY - 範例模型:
vercel-ai-gateway/anthropic/claude-opus-4.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
Section titled “Kilo Gateway”- 提供商:
kilocode - 驗證:
KILOCODE_API_KEY - 範例模型:
kilocode/anthropic/claude-opus-4.6 - CLI:
openclaw onboard --kilocode-api-key <key> - 基礎 URL:
https://api.kilo.ai/api/gateway/ - 擴展的內建目錄包括 GLM-5 Free、MiniMax M2.7 Free、GPT-5.2、Gemini 3 Pro Preview、Gemini 3 Flash Preview、Grok Code Fast 1 和 Kimi K2.5。
請參閱 /providers/kilocode 以取得設定詳細資訊。
其他內建提供商外掛
Section titled “其他內建提供商外掛”- OpenRouter:
openrouter(OPENROUTER_API_KEY) - 範例模型:
openrouter/anthropic/claude-sonnet-4-6 - Kilo Gateway:
kilocode(KILOCODE_API_KEY) - 範例模型:
kilocode/anthropic/claude-opus-4.6 - MiniMax:
minimax(MINIMAX_API_KEY) - Moonshot:
moonshot(MOONSHOT_API_KEY) - Kimi Coding:
kimi-coding(KIMI_API_KEY或KIMICODE_API_KEY) - Qianfan:
qianfan(QIANFAN_API_KEY) - Model Studio:
modelstudio(MODELSTUDIO_API_KEY) - NVIDIA:
nvidia(NVIDIA_API_KEY) - Together:
together(TOGETHER_API_KEY) - Venice:
venice(VENICE_API_KEY) - Xiaomi:
xiaomi(XIAOMI_API_KEY) - Vercel AI Gateway:
vercel-ai-gateway(AI_GATEWAY_API_KEY) - Hugging Face 推理:
huggingface(HUGGINGFACE_HUB_TOKEN或HF_TOKEN) - Cloudflare AI Gateway:
cloudflare-ai-gateway(CLOUDFLARE_AI_GATEWAY_API_KEY) - 火山引擎:
volcengine(VOLCANO_ENGINE_API_KEY) - BytePlus:
byteplus(BYTEPLUS_API_KEY) - xAI:
xai(XAI_API_KEY) - Mistral:
mistral(MISTRAL_API_KEY) - 示例模型:
mistral/mistral-large-latest - CLI:
openclaw onboard --auth-choice mistral-api-key - Groq:
groq(GROQ_API_KEY) - Cerebras:
cerebras(CEREBRAS_API_KEY)- Cerebras 上的 GLM 模型使用 ID
zai-glm-4.7和zai-glm-4.6。 - OpenAI 相容基礎 URL:
https://api.cerebras.ai/v1。
- Cerebras 上的 GLM 模型使用 ID
- GitHub Copilot:
github-copilot(COPILOT_GITHUB_TOKEN/GH_TOKEN/GITHUB_TOKEN) - Hugging Face 推理示例模型:
huggingface/deepseek-ai/DeepSeek-R1;CLI:openclaw onboard --auth-choice huggingface-api-key。請參閱 Hugging Face (Inference)。
透過 models.providers 的供應商 (自訂/基礎 URL)
Section titled “透過 models.providers 的供應商 (自訂/基礎 URL)”使用 models.providers (或 models.json) 來新增自訂供應商或
OpenAI/Anthropic 相容的代理伺服器。
以下許多捆綁的供應商外掛程式已經發布了預設目錄。
僅在您想要覆寫預設基礎 URL、標頭或模型清單時,
才使用明確的 models.providers.<id> 項目。
Moonshot AI (Kimi)
Section titled “Moonshot AI (Kimi)”Moonshot 使用與 OpenAI 相容的端點,因此請將其設定為自訂供應商:
- 供應商:
moonshot - 認證:
MOONSHOT_API_KEY - 示例模型:
moonshot/kimi-k2.5
Kimi K2 模型 ID:
moonshot/kimi-k2.5moonshot/kimi-k2-0905-previewmoonshot/kimi-k2-turbo-previewmoonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbo
{ agents: { defaults: { model: { primary: "moonshot/kimi-k2.5" } }, }, models: { mode: "merge", providers: { moonshot: { baseUrl: "https://api.moonshot.ai/v1", apiKey: "${MOONSHOT_API_KEY}", api: "openai-completions", models: [{ id: "kimi-k2.5", name: "Kimi K2.5" }], }, }, },}Kimi Coding
Section titled “Kimi Coding”Kimi Coding 使用月之暗面 (Moonshot AI) 的 Anthropic 相容端點:
- 提供商:
kimi-coding - 驗證:
KIMI_API_KEY - 模型範例:
kimi-coding/k2p5
{ env: { KIMI_API_KEY: "sk-..." }, agents: { defaults: { model: { primary: "kimi-coding/k2p5" } }, },}火山引擎 (豆包)
Section titled “火山引擎 (豆包)”火山引擎 提供豆包 及中國境內其他模型的存取權。
- 提供商:
volcengine(coding:volcengine-plan) - 驗證:
VOLCANO_ENGINE_API_KEY - 模型範例:
volcengine/doubao-seed-1-8-251228 - CLI:
openclaw onboard --auth-choice volcengine-api-key
{ agents: { defaults: { model: { primary: "volcengine/doubao-seed-1-8-251228" } }, },}可用模型:
volcengine/doubao-seed-1-8-251228(豆包 Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
編碼模型 (volcengine-plan):
volcengine-plan/ark-code-latestvolcengine-plan/doubao-seed-codevolcengine-plan/kimi-k2.5volcengine-plan/kimi-k2-thinkingvolcengine-plan/glm-4.7
BytePlus (國際版)
Section titled “BytePlus (國際版)”BytePlus ARK 為國際使用者提供與火山引擎相同的模型存取權。
- 提供商:
byteplus(coding:byteplus-plan) - 驗證:
BYTEPLUS_API_KEY - 模型範例:
byteplus/seed-1-8-251228 - CLI:
openclaw onboard --auth-choice byteplus-api-key
{ agents: { defaults: { model: { primary: "byteplus/seed-1-8-251228" } }, },}可用模型:
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
編碼模型 (byteplus-plan):
byteplus-plan/ark-code-latestbyteplus-plan/doubao-seed-codebyteplus-plan/kimi-k2.5byteplus-plan/kimi-k2-thinkingbyteplus-plan/glm-4.7
Synthetic
Section titled “Synthetic”Synthetic 透過 synthetic 提供商提供 Anthropic 相容模型:
- 提供商:
synthetic - 驗證:
SYNTHETIC_API_KEY - 模型範例:
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI:
openclaw onboard --auth-choice synthetic-api-key
{ agents: { defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" } }, }, models: { mode: "merge", providers: { synthetic: { baseUrl: "https://api.synthetic.new/anthropic", apiKey: "${SYNTHETIC_API_KEY}", api: "anthropic-messages", models: [{ id: "hf:MiniMaxAI/MiniMax-M2.5", name: "MiniMax M2.5" }], }, }, },}MiniMax
Section titled “MiniMax”MiniMax 是透過 models.providers 進行設定,因為它使用自訂端點:
- MiniMax (Anthropic 相容):
--auth-choice minimax-api - Auth:
MINIMAX_API_KEY
詳見 /providers/minimax 以了解設定細節、模型選項與設定範例。
Ollama
Section titled “Ollama”Ollama 作為內建提供者外掛程式隨附,並使用 Ollama 的原生 API:
- Provider:
ollama - Auth: 不需要(本機伺服器)
- Example model:
ollama/llama3.3 - 安裝:https://ollama.com/download
# Install Ollama, then pull a model:ollama pull llama3.3{ agents: { defaults: { model: { primary: "ollama/llama3.3" } }, },}當您使用 OLLAMA_API_KEY 選擇加入時,系統會在本機 http://127.0.0.1:11434 偵測到 Ollama,而內建的提供者外掛程式會將 Ollama 直接新增到 openclaw onboard 和模型選擇器中。詳見 /providers/ollama 以了解上手、雲端/本機模式與自訂設定。
vLLM 作為內建提供者外掛程式隨附,適用於本機/自託管的 OpenAI 相容伺服器:
- Provider:
vllm - Auth: 選用(視您的伺服器而定)
- Default base URL:
http://127.0.0.1:8000/v1
若要在本機選擇加入自動探索(如果您的伺服器不強制執行驗證,則任何值皆可):
export VLLM_API_KEY="vllm-local"然後設定一個模型(替換為 /v1/models 傳回的其中一個 ID):
{ agents: { defaults: { model: { primary: "vllm/your-model-id" } }, },}詳見 /providers/vllm。
SGLang
Section titled “SGLang”SGLang 作為內建提供者外掛程式隨附,適用於快速的自託管 OpenAI 相容伺服器:
- Provider:
sglang - Auth: 選用(視您的伺服器而定)
- Default base URL:
http://127.0.0.1:30000/v1
若要在本機選擇加入自動探索(如果您的伺服器不強制執行驗證,則任何值皆可):
export SGLANG_API_KEY="sglang-local"然後設定一個模型(替換為 /v1/models 傳回的其中一個 ID):
{ agents: { defaults: { model: { primary: "sglang/your-model-id" } }, },}本機代理伺服器(LM Studio、vLLM、LiteLLM 等)
Section titled “本機代理伺服器(LM Studio、vLLM、LiteLLM 等)”範例(OpenAI 相容):
{ agents: { defaults: { model: { primary: "lmstudio/my-local-model" }, models: { "lmstudio/my-local-model": { alias: "Local" } }, }, }, models: { providers: { lmstudio: { baseUrl: "http://localhost:1234/v1", apiKey: "LMSTUDIO_KEY", api: "openai-completions", models: [ { id: "my-local-model", name: "Local Model", reasoning: false, input: ["text"], cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }, contextWindow: 200000, maxTokens: 8192, }, ], }, }, },}備註:
- 對於自訂提供者,
reasoning、input、cost、contextWindow和maxTokens為選用。 省略時,OpenClaw 預設為:reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
- 建議:設定符合您的代理/模型限制的明確值。
- 對於非原生端點上的
api: "openai-completions"(任何主機不是api.openai.com的非空baseUrl),OpenClaw 會強制執行compat.supportsDeveloperRole: false,以避免提供者因不支援的developer角色而傳回 400 錯誤。 - 如果
baseUrl為空或省略,OpenClaw 會保持預設的 OpenAI 行為(即解析為api.openai.com)。 - 為了安全起見,在非原生的
openai-completions端點上,明確的compat.supportsDeveloperRole: true仍會被覆寫。
CLI 範例
Section titled “CLI 範例”openclaw onboard --auth-choice opencode-zenopenclaw models set opencode/claude-opus-4-6openclaw models list另請參閱:/gateway/configuration 以取得完整的設定範例。
- Models — 模型設定與別名
- Model Failover — 容錯移轉鏈與重試行為
- Configuration Reference — 模型設定鍵
- Providers — 各提供者的設定指南