研究
peer-review avatar

peer-review

结构化手稿与经费审查助手,提供基于检查清单的评估,涵盖方法论、统计效度及报告标准(如 CONSORT/STROBE)合规性检核。

简介

peer-review 技能为评估科学手稿、研究经费申请书及技术文件提供了一套严谨且系统化的架构。该技能专为研究人员、期刊编辑及学术审稿人设计,将主观的科学批评任务转化为客观、基于检查清单的作业流程。通过专注于批判性评估而非单纯的文字修改,它能确保每份审稿意见都触及学术诚信的核心支柱:实验严谨性、统计效度、报告透明度以及沟通清晰度。使用者可利用此技能提供具建设性且可执行的回馈,协助作者强化研究设计、解决潜在偏差并符合国际发表标准。

  • 执行深度区块分析:评估摘要与引言的叙述影响力,以及方法、结果与讨论章节的技术准确性。

  • 强制执行各项报告准则的合规性,包括临床试验的 CONSORT、观察性研究的 STROBE,以及系统性回顾的 PRISMA。

  • 审视数据可用性、统计方法合理性、样本量计算及对照组有效性,藉此评估研究的可重现性。

  • 与 scientific-schematics 技能整合,建议并生成高质量的科学图表、研究流程图及决策树,协助视觉化呈现研究概念。

  • 识别常见的研究「红旗」警告,例如数据过度诠释、选择性报告或循环论证。

  • 当任务涉及期刊投稿审稿、评估经费可行性或在定稿前修订手稿时,此技能极为有效。

  • 若需对逻辑证据或主张品质进行全面评估,建议搭配 scientific-critical-thinking 技能;若涉及量化评分或指标架构,请使用 scholar-evaluation 技能。

  • 输入内容包括原始手稿或提案文本;输出内容则提供按手稿章节结构化的分类建设性评论。

  • AI 代理具备统计报告分析能力,能识别缺失的误差条、确认 p 值的正确运用,并核实研究假设与实验结果之间的一致性。

仓库统计

Star 数
19,688
Fork 数
2,198
Open Issue 数
42
主要语言
Python
默认分支
main
同步状态
空闲
最近同步时间
2026年4月29日 06:08
在 GitHub 查看