Ollama
Ollama
Section titled “Ollama”Ollama 是一個本機 LLM 運行環境,可讓您輕鬆在機器上執行開源模型。OpenClaw 整合了 Ollama 的原生 API (/api/chat),支援串流和工具調用,並且當您使用 OLLAMA_API_KEY (或驗證設定檔)啟用且未定義明確的 models.providers.ollama 項目時,可以自動探索本機 Ollama 模型。
入門引導 (推薦)
Section titled “入門引導 (推薦)”設定 Ollama 最快的方法是透過入門引導:
openclaw onboard從供應商清單中選取 Ollama。入門引導將會:
- 詢問可連線至您執行個體的 Ollama 基礎 URL (預設為
http://127.0.0.1:11434)。 - 讓您選擇 雲端 + 本機 (雲端模型和本機模型) 或 本機 (僅限本機模型)。
- 如果您選擇 雲端 + 本機 且尚未登入 ollama.com,則會開啟瀏覽器登入流程。
- 探索可用的模型並建議預設值。
- 如果選取的模型在本機無法使用,則會自動拉取。
也支援非互動模式:
openclaw onboard --non-interactive \ --auth-choice ollama \ --accept-risk選擇性地指定自訂基礎 URL 或模型:
openclaw onboard --non-interactive \ --auth-choice ollama \ --custom-base-url "http://ollama-host:11434" \ --custom-model-id "qwen3.5:27b" \ --accept-risk-
安裝 Ollama:https://ollama.com/download
-
如果您想要本機推論,請拉取本機模型:
ollama pull glm-4.7-flash# orollama pull gpt-oss:20b# orollama pull llama3.3- 如果您也想要雲端模型,請登入:
ollama signin- 執行入門引導並選擇
Ollama:
openclaw onboardLocal:僅限本機模型Cloud + Local:本機模型加上雲端模型- 諸如
kimi-k2.5:cloud、minimax-m2.5:cloud和glm-5:cloud等雲端模型 不 需要本機ollama pull
OpenClaw 目前建議:
- 本機預設:
glm-4.7-flash - cloud defaults:
kimi-k2.5:cloud,minimax-m2.5:cloud,glm-5:cloud
- 如果您偏好手動設定,請直接為 OpenClaw 啟用 Ollama(任何值皆可;Ollama 不需要真實金鑰):
# Set environment variableexport OLLAMA_API_KEY="ollama-local"
# Or configure in your config fileopenclaw config set models.providers.ollama.apiKey "ollama-local"- 檢查或切換模型:
openclaw models listopenclaw models set ollama/glm-4.7-flash- 或在設定中設定預設值:
{ agents: { defaults: { model: { primary: "ollama/glm-4.7-flash" }, }, },}模型探索(隱式提供者)
Section titled “模型探索(隱式提供者)”當您設定 OLLAMA_API_KEY(或認證設定檔)並且未定義 models.providers.ollama 時,OpenClaw 會從 http://127.0.0.1:11434 的本機 Ollama 實例探索模型:
- 查詢
/api/tags - 使用盡力而為的
/api/show查找來讀取可用的contextWindow - 使用模型名稱啟發法(
r1,reasoning,think)標記reasoning - 將
maxTokens設定為 OpenClaw 使用的預設 Ollama 最大 token 上限 - 將所有成本設定為
0
這避免了手動輸入模型,同時讓目錄與本機 Ollama 實例保持同步。
若要查看有哪些可用模型:
ollama listopenclaw models list若要新增模型,只需使用 Ollama 拉取:
ollama pull mistral新模型將會自動被探索並可使用。
如果您明確設定 models.providers.ollama,則會跳過自動探索,您必須手動定義模型(見下文)。
基本設定(隱式探索)
Section titled “基本設定(隱式探索)”啟用 Ollama 最簡單的方法是透過環境變數:
export OLLAMA_API_KEY="ollama-local"明確設定(手動模型)
Section titled “明確設定(手動模型)”在以下情況使用明確設定:
- Ollama 執行於其他主機/連接埠。
- 您想要強制指定特定的內容視窗或模型列表。
- 您想要完全手動的模型定義。
{ models: { providers: { ollama: { baseUrl: "http://ollama-host:11434", apiKey: "ollama-local", api: "ollama", models: [ { id: "gpt-oss:20b", name: "GPT-OSS 20B", reasoning: false, input: ["text"], cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }, contextWindow: 8192, maxTokens: 8192 * 10 } ] } } }}如果設定了 OLLAMA_API_KEY,您可以在提供者條目中省略 apiKey,OpenClaw 將會為可用性檢查填入它。
自訂基礎 URL(明確設定)
Section titled “自訂基礎 URL(明確設定)”如果 Ollama 執行於不同的主機或連接埠(明確設定會停用自動探索,因此請手動定義模型):
{ models: { providers: { ollama: { apiKey: "ollama-local", baseUrl: "http://ollama-host:11434", // No /v1 - use native Ollama API URL api: "ollama", // Set explicitly to guarantee native tool-calling behavior }, }, },}設定完成後,您所有的 Ollama 模型均可使用:
{ agents: { defaults: { model: { primary: "ollama/gpt-oss:20b", fallbacks: ["ollama/llama3.3", "ollama/qwen2.5-coder:32b"], }, }, },}雲端模型讓您能夠在本地模型旁邊執行雲端託管的模型(例如 kimi-k2.5:cloud、minimax-m2.5:cloud、glm-5:cloud)。
若要使用雲端模型,請在設定期間選擇 Cloud + Local 模式。精靈會檢查您是否已登入,並在需要時開啟瀏覽器登入流程。如果無法驗證身份,精靈會還原為本機模型的預設值。
您也可以直接在 ollama.com/signin 登入。
OpenClaw 預設會將名稱包含 deepseek-r1、reasoning 或 think 等的模型視為具有推理能力:
ollama pull deepseek-r1:32bOllama 是免費的並在本地執行,因此所有模型成本均設為 $0。
OpenClaw 的 Ollama 整合預設使用 原生 Ollama API (/api/chat),它同時完全支援串流和工具呼叫。無需特殊設定。
舊版 OpenAI 相容模式
Section titled “舊版 OpenAI 相容模式”如果您需要改用 OpenAI 相容端點(例如,在僅支援 OpenAI 格式的代理後方),請明確設定 api: "openai-completions":
{ models: { providers: { ollama: { baseUrl: "http://ollama-host:11434/v1", api: "openai-completions", injectNumCtxForOpenAICompat: true, // default: true apiKey: "ollama-local", models: [...] } } }}此模式可能不支援同時進行串流和工具呼叫。您可能需要在模型設定中使用 params: { streaming: false } 停用串流。
當 api: "openai-completions" 與 Ollama 一起使用時,OpenClaw 預設會注入 options.num_ctx,以免 Ollama 靜默回退到 4096 的上下文視窗。如果您的代理/上游拒絕未知的 options 欄位,請停用此行為:
{ models: { providers: { ollama: { baseUrl: "http://ollama-host:11434/v1", api: "openai-completions", injectNumCtxForOpenAICompat: false, apiKey: "ollama-local", models: [...] } } }}對於自動探索的模型,OpenClaw 會在可用時使用 Ollama 回報的上下文視窗,否則會回退到 OpenClaw 使用的預設 Ollama 上下文視窗。您可以在明確的提供者設定中覆寫 contextWindow 和 maxTokens。
未偵測到 Ollama
Section titled “未偵測到 Ollama”請確保 Ollama 正在運行,並且您設定了 OLLAMA_API_KEY (或驗證設定檔),且您未定義明確的 models.providers.ollama 項目:
ollama serve以及 API 是可存取的:
curl http://localhost:11434/api/tags沒有可用的模型
Section titled “沒有可用的模型”如果您的模型未被列出,請:
- 在本地拉取模型,或
- 在
models.providers.ollama中明確定義模型。
若要新增模型:
ollama list # See what's installedollama pull glm-4.7-flashollama pull gpt-oss:20bollama pull llama3.3 # Or another model請檢查 Ollama 是否在正確的連接埠上運行:
# Check if Ollama is runningps aux | grep ollama
# Or restart Ollamaollama serve