Aller au contenu

Mémoire Honcho

Honcho ajoute une mémoire native IA à OpenClaw. Il persiste les conversations vers un service dédié et construit des modèles d’utilisateur et d’agent au fil du temps, donnant à votre agent un contexte inter-session qui va au-delà des fichiers Markdown de l’espace de travail.

  • Mémoire inter-session — les conversations sont persistées après chaque tour, donc le contexte est conservé à travers les réinitialisations de session, la compaction et les changements de channel.
  • Modélisation utilisateur — Honcho maintient un profil pour chaque utilisateur (préférences, faits, style de communication) et pour l’agent (personnalité, comportements appris).
  • Recherche sémantique — recherche sur les observations des conversations passées, et pas seulement la session actuelle.
  • Conscience multi-agent — les agents parents suivent automatiquement les sous-agents générés, les parents étant ajoutés comme observateurs dans les sessions enfants.

Honcho enregistre des outils que l’agent peut utiliser pendant la conversation :

Récupération de données (rapide, sans appel LLM) :

OutilCe qu’il fait
honcho_contextReprésentation complète de l’utilisateur à travers les sessions
honcho_search_conclusionsRecherche sémantique sur les conclusions stockées
honcho_search_messagesTrouver des messages à travers les sessions (filtrer par expéditeur, date)
honcho_sessionHistorique et résumé de la session actuelle

Q&A (alimenté par LLM) :

OutilCe qu’il fait
honcho_askPoser des questions sur l’utilisateur. depth='quick' pour les faits, 'thorough' pour la synthèse

Installez le plugin et lancez la configuration :

Fenêtre de terminal
openclaw plugins install @honcho-ai/openclaw-honcho
openclaw honcho setup
openclaw gateway --force

La commande de configuration demande vos identifiants API, écrit la configuration et migre facultativement les fichiers de mémoire de l’espace de travail existants.

Les paramètres se trouvent sous plugins.entries["openclaw-honcho"].config :

{
plugins: {
entries: {
"openclaw-honcho": {
config: {
apiKey: "your-api-key", // omit for self-hosted
workspaceId: "openclaw", // memory isolation
baseUrl: "https://api.honcho.dev",
},
},
},
},
}

Pour les instances auto-hébergées, pointez baseUrl vers votre serveur local (par exemple http://localhost:8000) et omettez la clé API.

If you have existing workspace memory files (USER.md, MEMORY.md, IDENTITY.md, memory/, canvas/), openclaw honcho setup detects and offers to migrate them.

After every AI turn, the conversation is persisted to Honcho. Both user and agent messages are observed, allowing Honcho to build and refine its models over time.

During conversation, Honcho tools query the service in the before_prompt_build phase, injecting relevant context before the model sees the prompt. This ensures accurate turn boundaries and relevant recall.

Builtin / QMDHoncho
StockageFichiers Markdown de l’espace de travailService dédié (local ou hébergé)
Multi-sessionVia les fichiers de mémoireAutomatique, intégré
Modélisation utilisateurManuel (écrire dans MEMORY.md)Profils automatiques
RechercheVecteur + mot-clé (hybride)Sémantique sur les observations
Multi-agentNon suiviConscience parent/enfant
DépendancesAucune (intégré) ou binaire QMDInstallation du plugin

Honcho and the builtin memory system can work together. When QMD is configured, additional tools become available for searching local Markdown files alongside Honcho’s cross-session memory.

Fenêtre de terminal
openclaw honcho setup # Configure API key and migrate files
openclaw honcho status # Check connection status
openclaw honcho ask <question> # Query Honcho about the user
openclaw honcho search <query> [-k N] [-d D] # Semantic search over memory