massive-context-mcp
透過遞迴分塊、子查詢與聚合結果處理超過 1,000 萬 tokens 的大型檔案與程式碼庫,突破 LLM 上下文視窗限制。
簡介
massive-context-mcp 伺服器實現了遞迴語言模型 (RLM) 模式,專為處理超出標準 LLM 上下文視窗的輸入而設計,例如大型日誌檔、海量數據集或整個程式碼庫。透過將上下文視為外部變量,代理程式能避免在提示詞中填充過多數據,轉而利用程式化分塊與針對性子查詢來高效提取資訊。此方法非常適合開發人員、數據科學家與研究人員,特別是需要分析超過 100KB 的檔案或多檔案專案時。
-
透過並行子查詢遍歷數十個檔案,執行深入的程式碼庫分析。
-
處理大型日誌檔 (10MB+),透過正則表達式篩選特定模式並聚合各區塊洞察。
-
支援雙模式推論:使用高準確度的 Claude-SDK (Haiku) 進行生產任務,或透過 Ollama 進行免費且注重隱私的本地推論。
-
透過 rlm_auto_analyze 工具自動編排,該工具可偵測內容類型並最佳化分塊策略(行、字元或段落)以取得最佳回應。
-
提供細粒度的處理生命週期控制:使用專用 MCP 工具進行載入、檢查、分塊、子查詢、儲存與結果聚合。
-
內建 Claude Desktop 與 Claude Code 的整合掛鉤,當存取超過 10KB 的檔案時主動建議使用 RLM,自動防止上下文膨脹。
-
請僅在真正超出上下文限制時才使用 RLM 模式;小型檔案建議使用標準工具。
-
分塊策略取決於內容:程式碼或日誌建議使用「行」,文件或散文建議使用「段落」,非結構化資料建議使用「字元」。
-
使用子查詢批次處理時,建議併發數保持在 8 以下以確保 API 穩定性。
-
Ollama 模型 (如 gemma3:12b) 非常適合預算受限或首重隱私的需求,但請確保系統具備至少 16GB RAM 以獲得最佳本地效能。
-
RLM 系統將中間結果儲存於可設定目錄 (預設為 ~/.rlm-data),允許在不重新處理分塊的情況下進行迭代分析。
倉庫統計
- Star 數
- 0
- Fork 數
- 0
- Open Issue 數
- 1
- 主要語言
- Python
- 預設分支
- main
- 同步狀態
- 閒置
- 最近同步時間
- 2026年5月4日 上午03:12