工程开发
skill-reinforcement avatar

skill-reinforcement

一种自动化元学习技能,通过在每次任务执行后捕获模式、错误和捷径来改进代理工作流程。

简介

skill-reinforcement 技能作为自主代理的自我改进元层,确保每次执行的任务都能促进系统的长期智慧。它专为在 0 Finance 等环境中运行的 AI 代理而设计,填补了原始执行与持续文档记录之间的差距。通过在技能完成后自动触发,它能防止知识丢失、完善运营决策,并系统地更新本地技能文件,以反映通往成功的最高效率路径。对于想要减少 Token 浪费并随时间最大化任务可靠性的开发人员来说,此工具至关重要。

  • 在每次技能执行后,自动分析成功、失败与性能指标。

  • 捕获可执行的学习内容,包括快捷方式、反模式与环境特征。

  • 系统地更新 .opencode/skill/*/SKILL.md 中的文档,确保跨会话的知识持久性。

  • 与 self-improve 技能集成,以管理决策树、模板与复杂的工作流程逻辑。

  • 为记录失败模式与针对重复问题的有效修复程序提供结构化架构。

  • 促进 chrome-devtools-mcp、test-staging-branch 与金融工作流程等相关技能之间的知识传播。

  • 当任务完成、工作流程失败或有重要发现时,自动触发此技能。

  • 遵循五步骤强化流程:捕获上下文、识别学习内容、分类发现、更新技能文件以及验证更新。

  • 使用针对 Token 节省、失败模式、反模式与工作流程改进所提供的模板,确保格式一致。

  • 输入内容包括技能名称、任务说明、结果(成功/部分/失败)以及 Token 成本与延迟等性能指标。

  • 约束条件包括维护非冗余的文档记录,并确保所有更新皆具体且可执行,而非模糊的观察。

  • 定期检视最频繁使用的技能,以优先进行维护并识别何时应将可重复的任务转化为专用工具或代理。

仓库统计

Star 数
220
Fork 数
43
Open Issue 数
5
主要语言
TypeScript
默认分支
main
同步状态
空闲
最近同步时间
2026年4月29日 12:52
在 GitHub 查看