腾讯开源Agent记忆系统,OpenClaw最高省61% T

腾讯开源Agent记忆系统,OpenClaw最高省61% T

据[动察 Beating](https://t.me/OneMillion_AI)监测,腾讯云数据库团队耗时6个月,专门攻克“长对话失忆”难题。近日,官方正式开源 **TencentDB Agent Memory**。

## 一套面向 AI Agent 的“本地优先”记忆引擎

**TencentDB Agent Memory**是一套为 AI Agent 设计的本地优先记忆引擎。它默认使用 **SQLite + sqlite-vec** 作为本地后端,可作为 **OpenClaw 插件**安装;同时也支持通过 **Hermes Gateway** 接入。

## 关键不在“塞进向量库”,而在“分层拆记忆”

它的核心思路并不是把历史对话直接全部写入向量库,而是将记忆拆成两套结构,并按层沉淀:

– **长期记忆(长期沉淀)**
– **L0**:原始对话
– **L1**:原子事实
– **L2**:场景分块
– **L3**:用户画像
分层逐步提炼、沉淀,形成可追溯的记忆链路。

– **短期任务记忆(任务执行期)**
– 将冗长的**工具日志外置到 refs 文件**
– 把**步骤摘要写入 jsonl**
– 用 **Mermaid 画布**保留任务结构,并生成节点索引

## 复杂工作流下的高效调用策略

在**30步以上**的复杂工作流中,Agent 平时只需要**读取轻量的 Mermaid 结构图**;当需要查证细节时,再通过 **node_id** 精确回到原始日志。

## 官方基准数据:省 Token、增准确

官方基准显示,接入 **OpenClaw** 后:

– **WideSearch** 任务的 Token 消耗:
**221.31M → 85.64M**(降幅 **61.38%**)
– 通过率提升:
相对提升 **51.52%**

在长期记忆评测 **PersonaMem** 上:

– 准确率:
**48% → 76%**

## 价值所在:不是“一次性吞掉”,而是“可从高层追溯到底层”

这种设计的关键价值在于:它没有用一次性摘要覆盖历史细节,而是保留了一条从**高层画像—任务画布—底层原文**的完整追溯路径,让记忆既高效又可验证。

原创文章,作者:admin,如若转载,请注明出处:https://www.23btc.com/180319/

(0)
上一篇 1天前
下一篇 1天前

相关推荐