工程开发
supermemory avatar

supermemory

Supermemory 是 AI 代理的长期记忆基础设施,提供持久上下文、用户画像及跨多模态知识库的语义 RAG 搜索功能。

简介

Supermemory 为 AI 代理和应用程序提供了一个强大且先进的记忆与上下文管理层。它通过构建一个随用户交互演进的即时知识图谱,解决了 AI 无状态的难题。通过维护长期上下文,开发者可以打造出能够记住用户偏好、项目特定数据及过往讨论的 AI 代理,有效地为聊天机器人、任务助理或知识密集型应用程序无限扩展上下文窗口。

该系统专为高性能检索与自动信息提取而设计。它处理多模态输入,包括文本、PDF、视频、图像和网址,并将其处理为结构化的记忆本体。开发者可以通过 TypeScript 和 Python 的 SDK 直接集成,或通过类似 Infinite Chat Provider 的代理模式进行连接,确保与 Vercel AI SDK、LangChain 及其他主流 AI 代理框架的无缝兼容性。

  • 高级记忆 API:自动从对话中提取事实,处理时间变化、管理矛盾信息,并执行过期数据的自动遗忘机制。

  • 动态用户画像:结合静态事实(如名称、角色)与近期交互中的事件数据,为每个请求建立个性化且不断演进的用户上下文。

  • 混合式语义搜索:将 RAG 与元数据过滤及上下文分块技术相结合,提供高度相关的信息而非仅仅是关键词匹配。

  • 多模态摄取:原生支持处理与索引多样化的内容格式,包括文档、代码存储库、网页及影音转录内容。

  • 开发者优先的集成:提供 SDK、用于本地 IDE 集成(如 Cursor, VS Code, Claude Desktop)的 MCP 服务器,以及用于自定义后端实现的强大 API。

  • 利用容器标签(Container Tags):针对用户或项目使用唯一的标识符以隔离记忆空间,避免上下文交叉污染。

  • 数据治理:在摄取数据时应用元数据,以实现高级过滤,提升特定知识领域内的检索准确度。

  • 性能优化:系统运行具备低延迟特性,大多数画像检索约在 50 毫秒内完成,适合实时代理响应。

  • 可扩展性:利用分布式存储与异步处理来应对大规模知识库,包括批量文档上传,以及针对 GitHub、Google Drive 或 Notion 等连线服务的实时 Webhook 支持。

  • 最佳实践:使用阈值设置来平衡语义搜索时的精确度与召回率,并善用知识图谱构建来维持衍生事实之间的关系。

仓库统计

Star 数
22,371
Fork 数
2,047
Open Issue 数
11
主要语言
TypeScript
默认分支
main
同步状态
空闲
最近同步时间
2026年5月3日 05:36
在 GitHub 查看