工程开发
context-compression avatar

context-compression

通过先进的上下文压缩、结构化摘要与任务导向的状态管理,为长期运行的 AI 代理会话优化性能并降低 Token 使用量。

简介

此技能专为管理复杂、长期运行会话的开发者与 AI 代理所设计,特别是在上下文窗口接近极限时。在处理包含超过 500 万个 Token 的大型代码库时,简单地截断历史记录会导致代理遗忘关键信息,如文件修改、函数签名与错误日志。本技能实施先进的上下文压缩策略,将“单一任务消耗 Token 数”(tokens-per-task) 作为指标,而非仅考虑单次请求的节省量。通过关注整体任务效率,能有效避免因压缩不当导致频繁重新获取信息所造成的成本浪费。

  • 锚定迭代摘要:维护结构化的持续性摘要,追踪会话意图、特定文件变更、设计决策与未完成任务,确保项目状态不丢失。

  • 结构化产物追踪:提供机制记录哪些文件被修改、读取或创建,缓解编码代理中常见的“产物追踪”问题。

  • 压缩触发启发式:提供多种策略,如固定阈值触发、滑动窗口与重要性排序减量,以决定压缩历史记录的最佳时机。

  • 基于探针的质量评估:整合评估框架,通过检测事实回忆、决策推理与产物完整性,衡量压缩质量,超越单纯的词汇匹配。

  • 单一任务 Token 优化:将重点从最小化输入 Token 转移到最小化整体成本与延迟,通过减少代理在复杂编码工作中的重复探索或幻觉,提升执行效率。

  • 当遇到上下文窗口溢出或代理在长期多轮编码任务中表现下降时,请启用此技能。

  • 利用提供的结构化 Markdown 段落,强制保存如 JWT 设置、Redis 连接池与错误消息历史等技术细节。

  • 实施依赖于对会话历史进行逻辑分段,防止在多次压缩循环中发生关键信息漂移。

  • 适用于使用 XState 或标准 CLI 代理架构的系统,其中明确的状态与历史记录对于高精度输出至关重要。

  • 建议用户确保其评估协议包含特定的“探针问题”,以验证必要文件路径与系统限制在压缩过程中得以保留。

仓库统计

Star 数
0
Fork 数
1
Open Issue 数
1
主要语言
Python
默认分支
main
同步状态
空闲
最近同步时间
2026年5月3日 21:30
在 GitHub 查看