跳转到内容

LLM 任务

llm-task 是一个可选的插件工具,用于运行纯 JSON LLM 任务并 返回结构化输出(可选择根据 JSON Schema 进行验证)。

这非常适合像 Lobster 这样工作流引擎:您可以添加单个 LLM 步骤, 而无需为每个工作流编写自定义 OpenClaw 代码。

  1. 启用插件:
{
"plugins": {
"entries": {
"llm-task": { "enabled": true }
}
}
}
  1. 将该工具列入白名单(它注册于 optional: true):
{
"agents": {
"list": [
{
"id": "main",
"tools": { "allow": ["llm-task"] }
}
]
}
}
{
"plugins": {
"entries": {
"llm-task": {
"enabled": true,
"config": {
"defaultProvider": "openai-codex",
"defaultModel": "gpt-5.4",
"defaultAuthProfileId": "main",
"allowedModels": ["openai-codex/gpt-5.4"],
"maxTokens": 800,
"timeoutMs": 30000
}
}
}
}
}

allowedModelsprovider/model 字符串的白名单。如果设置,则列表之外的任何请求 都会被拒绝。

  • prompt(字符串,必填)
  • input(任意类型,可选)
  • schema(对象,可选的 JSON Schema)
  • provider(字符串,可选)
  • model(字符串,可选)
  • thinking(字符串,可选)
  • authProfileId(字符串,可选)
  • temperature(数字,可选)
  • maxTokens(数字,可选)
  • timeoutMs(数字,可选)

thinking 接受标准的 OpenClaw 推理预设,例如 lowmedium

返回包含解析后的 JSON 的 details.json(并在提供时 对照 schema 进行验证)。

openclaw.invoke --tool llm-task --action json --args-json '{
"prompt": "Given the input email, return intent and draft.",
"thinking": "low",
"input": {
"subject": "Hello",
"body": "Can you help?"
},
"schema": {
"type": "object",
"properties": {
"intent": { "type": "string" },
"draft": { "type": "string" }
},
"required": ["intent", "draft"],
"additionalProperties": false
}
}'
  • 该工具是 仅 JSON 的,并指示模型仅输出 JSON(无 代码块,无评论)。
  • 在此次运行中,没有向模型公开任何工具。
  • 除非使用 schema 进行验证,否则请将输出视为不受信任的内容。
  • 在任何产生副作用的步骤(发送、发布、执行)之前放置审批流程。