工程開發
supermemory avatar

supermemory

Supermemory 是 AI 代理的長期記憶基礎設施,提供持久上下文、用戶畫像及跨多模態知識庫的語義 RAG 搜尋功能。

簡介

Supermemory 為 AI 代理和應用程式提供了一個強大且先進的記憶與上下文管理層。它透過構建一個隨用戶互動演進的即時知識圖譜,解決了 AI 無狀態的關鍵問題。透過維護長期上下文,開發者可以打造出能夠記住用戶偏好、專案特定資料及過往討論的 AI 代理,有效地為聊天機器人、任務助理或知識密集型應用程式無限擴展上下文窗口。

該系統專為高性能檢索與自動資訊提取而設計。它處理多模態輸入,包括文字、PDF、影片、圖像和網址,並將其處理為結構化的記憶本體。開發者可以透過 TypeScript 和 Python 的 SDK 直接整合,或透過類似 Infinite Chat Provider 的代理模式進行連接,確保與 Vercel AI SDK、LangChain 及其他主流 AI 代理框架的無縫相容性。

  • 進階記憶 API:自動從對話中提取事實,處理時間變化、管理矛盾資訊,並執行過期資料的自動遺忘機制。

  • 動態用戶畫像:結合靜態事實(如名稱、角色)與近期互動中的事件資料,為每個請求建立個人化且不斷演進的用戶上下文。

  • 混合式語義搜尋:將 RAG 與元數據過濾及上下文分塊技術相結合,提供高度相關的資訊而非僅僅是關鍵字匹配。

  • 多模態攝取:原生支援處理與索引多樣化的內容格式,包括文件、程式碼儲存庫、網頁及影音轉錄內容。

  • 開發者優先的整合:提供 SDK、用於本地 IDE 整合(如 Cursor, VS Code, Claude Desktop)的 MCP 伺服器,以及用於自定義後端實現的強大 API。

  • 利用容器標籤(Container Tags):針對用戶或專案使用唯一的標識符以隔離記憶空間,避免上下文交叉污染。

  • 資料治理:在攝取資料時套用元數據,以實現進階過濾,提升特定知識領域內的檢索準確度。

  • 效能優化:系統運作具備低延遲特性,大多數畫像檢索約在 50 毫秒內完成,適合即時代理響應。

  • 可擴展性:利用分佈式儲存與非同步處理來應對大規模知識庫,包括批次文件上傳,以及針對 GitHub、Google Drive 或 Notion 等連線服務的即時 Webhook 支援。

  • 最佳實踐:使用閾值設定來平衡語義搜尋時的精確度與召回率,並善用知識圖譜構建來維持衍生事實之間的關係。

倉庫統計

Star 數
22,371
Fork 數
2,047
Open Issue 數
11
主要語言
TypeScript
預設分支
main
同步狀態
閒置
最近同步時間
2026年5月3日 上午05:36
在 GitHub 查看