音频和语音笔记
音频 / 语音笔记 (2026-01-17)
Section titled “音频 / 语音笔记 (2026-01-17)”- 媒体理解(音频):如果启用了音频理解(或自动检测),OpenClaw:
- 定位第一个音频附件(本地路径或 URL),并在需要时下载它。
- 在发送到每个模型条目之前强制执行
maxBytes。 - 按顺序运行第一个符合条件的模型条目(提供商或 CLI)。
- 如果失败或跳过(大小/超时),它将尝试下一个条目。
- 成功后,它将
Body替换为[Audio]块并设置{{Transcript}}。
- 命令解析:当转录成功时,
CommandBody/RawBody被设置为转录内容,以便斜杠命令仍然有效。 - 详细日志记录:在
--verbose中,我们会记录转录何时运行以及何时替换正文。
自动检测(默认)
Section titled “自动检测(默认)”如果您未配置模型且 tools.media.audio.enabled 未设置为 false,
OpenClaw 将按此顺序自动检测,并在遇到第一个可用的选项时停止:
- 本地 CLIs(如果已安装)
sherpa-onnx-offline(需要带有 encoder/decoder/joiner/tokens 的SHERPA_ONNX_MODEL_DIR)whisper-cli(来自whisper-cpp;使用WHISPER_CPP_MODEL或内置的 tiny 模型)whisper(Python CLI;自动下载模型)
- Gemini CLI(
gemini)使用read_many_files - 提供商密钥(OpenAI → Groq → Deepgram → Google)
要禁用自动检测,请设置 tools.media.audio.enabled: false。
要自定义,请设置 tools.media.audio.models。
注意:二进制检测在 macOS/Linux/Windows 上是尽力而为的;确保 CLI 在 PATH 上(我们会展开 ~),或者通过完整命令路径设置显式的 CLI 模型。
Provider + CLI 回退 (OpenAI + Whisper CLI)
Section titled “Provider + CLI 回退 (OpenAI + Whisper CLI)”{ tools: { media: { audio: { enabled: true, maxBytes: 20971520, models: [ { provider: "openai", model: "gpt-4o-mini-transcribe" }, { type: "cli", command: "whisper", args: ["--model", "base", "{{MediaPath}}"], timeoutSeconds: 45, }, ], }, }, },}仅提供商,带范围控制
Section titled “仅提供商,带范围控制”{ tools: { media: { audio: { enabled: true, scope: { default: "allow", rules: [{ action: "deny", match: { chatType: "group" } }], }, models: [{ provider: "openai", model: "gpt-4o-mini-transcribe" }], }, }, },}仅 Provider (Deepgram)
Section titled “仅 Provider (Deepgram)”{ tools: { media: { audio: { enabled: true, models: [{ provider: "deepgram", model: "nova-3" }], }, }, },}仅提供商(Mistral Voxtral)
Section titled “仅提供商(Mistral Voxtral)”{ tools: { media: { audio: { enabled: true, models: [{ provider: "mistral", model: "voxtral-mini-latest" }], }, }, },}将转录内容回显到聊天(可选加入)
Section titled “将转录内容回显到聊天(可选加入)”{ tools: { media: { audio: { enabled: true, echoTranscript: true, // default is false echoFormat: '📝 "{transcript}"', // optional, supports {transcript} models: [{ provider: "openai", model: "gpt-4o-mini-transcribe" }], }, }, },}注意事项与限制
Section titled “注意事项与限制”- 提供商身份验证遵循标准模型身份验证顺序(身份验证配置文件、环境变量、
models.providers.*.apiKey)。 - 当使用
provider: "deepgram"时,Deepgram 会获取DEEPGRAM_API_KEY。 - Deepgram 设置详情:Deepgram (音频转录)。
- Mistral 设置详情:Mistral。
- 音频提供商可以通过
tools.media.audio覆盖baseUrl、headers和providerOptions。 - 默认大小上限为 20MB (
tools.media.audio.maxBytes)。超出大小的音频将被跳过,并尝试下一个条目。 - 小于 1024 字节的微小/空音频文件会在提供商/CLI 转录之前被跳过。
- 音频的默认
maxChars是 未设置(完整转录)。设置tools.media.audio.maxChars或每个条目的maxChars以修剪输出。 - OpenAI 自动默认值是
gpt-4o-mini-transcribe;设置model: "gpt-4o-transcribe"以获得更高的准确性。 - 使用
tools.media.audio.attachments处理多个语音笔记 (mode: "all"+maxAttachments)。 - 转录内容可供模板作为
{{Transcript}}使用。 tools.media.audio.echoTranscript默认处于关闭状态;启用它可以在代理处理之前将转录确认发送回原始聊天。tools.media.audio.echoFormat自定义回显文本(占位符:{transcript})。- CLI 标准输出设有上限(5MB);请保持 CLI 输出简练。
代理环境支持
Section titled “代理环境支持”基于提供商的音频转录遵循标准出站代理环境变量:
HTTPS_PROXYHTTP_PROXYhttps_proxyhttp_proxy
如果未设置代理环境变量,则使用直接出口。如果代理配置格式错误,OpenClaw 会记录警告并回退到直接获取。
群组中的提及检测
Section titled “群组中的提及检测”当为群组聊天设置了 requireMention: true 时,OpenClaw 现在会在检查提及之前转录音频。这使得语音信息即使包含提及也能被处理。
工作原理:
- 如果语音消息没有文本正文且群组需要提及,OpenClaw 会执行“预检”转录。
- 转录文本会被检查是否包含提及模式(例如
@BotName、表情符号触发器)。 - 如果发现提及,该消息将通过完整的回复流程。
- 该转录文本用于提及检测,以便语音笔记能够通过提及检查。
回退行为:
- 如果在预检期间转录失败(超时、API 错误等),该消息将仅基于文本提及检测进行处理。
- 这确保了混合消息(文本 + 音频)永远不会被错误地丢弃。
针对每个 Telegram 群组/主题选择退出:
- 设置
channels.telegram.groups.<chatId>.disableAudioPreflight: true以跳过该群组的预检转录提及检查。 - 设置
channels.telegram.groups.<chatId>.topics.<threadId>.disableAudioPreflight以覆盖每个主题的设置(true表示跳过,false表示强制启用)。 - 默认为
false(当匹配提及限制条件时启用预检)。
示例: 用户在设置了 requireMention: true 的 Telegram 群组中发送了一条语音消息,内容是“嘿 @Claude,天气怎么样?”。语音笔记被转录,检测到提及,然后代理回复。
- 范围规则采用首次匹配原则。
chatType会被标准化为direct、group或room。 - 确保您的 CLI 退出码为 0 并打印纯文本;JSON 需要通过
jq -r .text进行处理。 - 对于
parakeet-mlx,如果您传递--output-dir,OpenClaw 会在--output-format为txt(或省略)时读取<output-dir>/<media-basename>.txt;非txt输出格式将回退到 stdout 解析。 - 保持超时时间合理(
timeoutSeconds,默认 60秒),以避免阻塞回复队列。 - 飞行前转录(Preflight transcription)仅处理第一个音频附件以进行提及检测。额外的音频将在主媒体理解阶段处理。