研究
peer-review avatar

peer-review

结构化稿件与经费审查助手。支持基于检查表的评估、报告标准(CONSORT, STROBE)、统计有效性检查,以及建设性反馈生成。

简介

同行评审技能为研究人员与学者提供了一个系统化框架,用于对科学稿件与研究经费申请进行严谨且客观的评估。该工具旨在通过确保在各个科学领域中对方法论、统计严谨性、实验设计与伦理标准进行全面审视,来协助同行评审工作。利用标准化的检查表方法,该代理能确保审查结果的一致性、建设性,并符合公认的学术出版规范。

  • 系统性的逐节分析,涵盖摘要、前言、方法、结果与讨论。

  • 针对主要报告规范(如 CONSORT、STROBE 与 PRISMA)的内置合规性检查,以提升研究的可重现性。

  • 自动化的统计有效性筛选,重点关注样本量、效能分析、偏差以及分析方法的适用性。

  • 视觉增强工作流:与 scientific-schematics 技能整合,建议并生成用于工作流程、决策树或方法论框架的示意图。

  • 建设性反馈生成,在指出局限性的同时提供可操作的建议,以完善稿件或增强经费申请案的质量。

  • 评估数据可用性、可重现性、伦理批准及利益冲突披露。

  • 当担任期刊同行审查员、进行内部实验室审核或进行投稿前的稿件评审时,请使用此技能。

  • 当提供完整的文本或特定章节时,该技能的效果最佳;它会输出清晰的结构化评估报告。

  • 对于特殊的基于证据的声明,可考虑结合 scientific-critical-thinking 技能;若需进行学术产出的定量评分,请使用 scholar-evaluation 技能。

  • 请务必根据各期刊的特定投稿指南核对输出结果,因为不同刊物的格式与标准可能有所差异。

  • 该代理程序针对复杂流程的示意图制作进行了优化;请确保您的环境具备文档中定义的示意图生成工具访问权限。

仓库统计

Star 数
19,623
Fork 数
2,196
Open Issue 数
41
主要语言
Python
默认分支
main
同步状态
空闲
最近同步时间
2026年4月28日 11:43
在 GitHub 查看