工程開發
massive-context-mcp avatar

massive-context-mcp

透過遞迴分塊、子查詢與聚合結果處理超過 1,000 萬 tokens 的大型檔案與程式碼庫,突破 LLM 上下文視窗限制。

簡介

massive-context-mcp 伺服器實現了遞迴語言模型 (RLM) 模式,專為處理超出標準 LLM 上下文視窗的輸入而設計,例如大型日誌檔、海量數據集或整個程式碼庫。透過將上下文視為外部變量,代理程式能避免在提示詞中填充過多數據,轉而利用程式化分塊與針對性子查詢來高效提取資訊。此方法非常適合開發人員、數據科學家與研究人員,特別是需要分析超過 100KB 的檔案或多檔案專案時。

  • 透過並行子查詢遍歷數十個檔案,執行深入的程式碼庫分析。

  • 處理大型日誌檔 (10MB+),透過正則表達式篩選特定模式並聚合各區塊洞察。

  • 支援雙模式推論:使用高準確度的 Claude-SDK (Haiku) 進行生產任務,或透過 Ollama 進行免費且注重隱私的本地推論。

  • 透過 rlm_auto_analyze 工具自動編排,該工具可偵測內容類型並最佳化分塊策略(行、字元或段落)以取得最佳回應。

  • 提供細粒度的處理生命週期控制:使用專用 MCP 工具進行載入、檢查、分塊、子查詢、儲存與結果聚合。

  • 內建 Claude Desktop 與 Claude Code 的整合掛鉤,當存取超過 10KB 的檔案時主動建議使用 RLM,自動防止上下文膨脹。

  • 請僅在真正超出上下文限制時才使用 RLM 模式;小型檔案建議使用標準工具。

  • 分塊策略取決於內容:程式碼或日誌建議使用「行」,文件或散文建議使用「段落」,非結構化資料建議使用「字元」。

  • 使用子查詢批次處理時,建議併發數保持在 8 以下以確保 API 穩定性。

  • Ollama 模型 (如 gemma3:12b) 非常適合預算受限或首重隱私的需求,但請確保系統具備至少 16GB RAM 以獲得最佳本地效能。

  • RLM 系統將中間結果儲存於可設定目錄 (預設為 ~/.rlm-data),允許在不重新處理分塊的情況下進行迭代分析。

倉庫統計

Star 數
0
Fork 數
0
Open Issue 數
1
主要語言
Python
預設分支
main
同步狀態
閒置
最近同步時間
2026年5月4日 上午03:12
在 GitHub 查看