supermemory
Supermemory 是 AI 代理的长期记忆基础设施,提供持久上下文、用户画像及跨多模态知识库的语义 RAG 搜索功能。
简介
Supermemory 为 AI 代理和应用程序提供了一个强大且先进的记忆与上下文管理层。它通过构建一个随用户交互演进的即时知识图谱,解决了 AI 无状态的难题。通过维护长期上下文,开发者可以打造出能够记住用户偏好、项目特定数据及过往讨论的 AI 代理,有效地为聊天机器人、任务助理或知识密集型应用程序无限扩展上下文窗口。
该系统专为高性能检索与自动信息提取而设计。它处理多模态输入,包括文本、PDF、视频、图像和网址,并将其处理为结构化的记忆本体。开发者可以通过 TypeScript 和 Python 的 SDK 直接集成,或通过类似 Infinite Chat Provider 的代理模式进行连接,确保与 Vercel AI SDK、LangChain 及其他主流 AI 代理框架的无缝兼容性。
-
高级记忆 API:自动从对话中提取事实,处理时间变化、管理矛盾信息,并执行过期数据的自动遗忘机制。
-
动态用户画像:结合静态事实(如名称、角色)与近期交互中的事件数据,为每个请求建立个性化且不断演进的用户上下文。
-
混合式语义搜索:将 RAG 与元数据过滤及上下文分块技术相结合,提供高度相关的信息而非仅仅是关键词匹配。
-
多模态摄取:原生支持处理与索引多样化的内容格式,包括文档、代码存储库、网页及影音转录内容。
-
开发者优先的集成:提供 SDK、用于本地 IDE 集成(如 Cursor, VS Code, Claude Desktop)的 MCP 服务器,以及用于自定义后端实现的强大 API。
-
利用容器标签(Container Tags):针对用户或项目使用唯一的标识符以隔离记忆空间,避免上下文交叉污染。
-
数据治理:在摄取数据时应用元数据,以实现高级过滤,提升特定知识领域内的检索准确度。
-
性能优化:系统运行具备低延迟特性,大多数画像检索约在 50 毫秒内完成,适合实时代理响应。
-
可扩展性:利用分布式存储与异步处理来应对大规模知识库,包括批量文档上传,以及针对 GitHub、Google Drive 或 Notion 等连线服务的实时 Webhook 支持。
-
最佳实践:使用阈值设置来平衡语义搜索时的精确度与召回率,并善用知识图谱构建来维持衍生事实之间的关系。
仓库统计
- Star 数
- 22,371
- Fork 数
- 2,047
- Open Issue 数
- 11
- 主要语言
- TypeScript
- 默认分支
- main
- 同步状态
- 空闲
- 最近同步时间
- 2026年5月3日 05:36