研究
peer-review avatar

peer-review

結構化手稿與經費審查助手,提供基於檢查清單的評估,涵蓋方法論、統計效度及報告標準(如 CONSORT/STROBE)合規性檢核。

簡介

peer-review 技能為評估科學手稿、研究經費申請書及技術文件提供了一套嚴謹且系統化的架構。該技能專為研究人員、期刊編輯及學術審稿人設計,將主觀的科學批評任務轉化為客觀、基於檢查清單的作業流程。透過專注於批判性評估而非單純的文字修改,它能確保每份審稿意見都觸及學術誠信的核心支柱:實驗嚴謹性、統計效度、報告透明度以及溝通清晰度。使用者可利用此技能提供具建設性且可執行的回饋,協助作者強化研究設計、解決潛在偏差並符合國際發表標準。

  • 執行深度區塊分析:評估摘要與引言的敘述影響力,以及方法、結果與討論章節的技術準確性。

  • 強制執行各項報告準則的合規性,包括臨床試驗的 CONSORT、觀察性研究的 STROBE,以及系統性回顧的 PRISMA。

  • 審視數據可用性、統計方法合理性、樣本量計算及對照組有效性,藉此評估研究的可重現性。

  • 與 scientific-schematics 技能整合,建議並生成高品質的科學圖表、研究流程圖及決策樹,協助視覺化呈現研究概念。

  • 識別常見的研究「紅旗」警告,例如數據過度詮釋、選擇性報告或循環論證。

  • 當任務涉及期刊投稿審稿、評估經費可行性或在定稿前修訂手稿時,此技能極為有效。

  • 若需對邏輯證據或主張品質進行全面評估,建議搭配 scientific-critical-thinking 技能;若涉及量化評分或指標架構,請使用 scholar-evaluation 技能。

  • 輸入內容包括原始手稿或提案文本;輸出內容則提供按手稿章節結構化的分類建設性評論。

  • AI 代理具備統計報告分析能力,能識別缺失的誤差條、確認 p 值的正確運用,並核實研究假設與實驗結果之間的一致性。

倉庫統計

Star 數
19,688
Fork 數
2,198
Open Issue 數
42
主要語言
Python
預設分支
main
同步狀態
閒置
最近同步時間
2026年4月29日 上午06:08
在 GitHub 查看