Academic Research Skills (ARS) — Claude Code 學術研究全流程技能包
- 来源链接: https://github.com/Imbad0202/academic-research-skills
- 版本: v3.8.0
- 授权: CC BY-NC 4.0(不得商用)
- 平台: Claude Code 插件(亦有 Codex CLI 分發版)
- 日期: 2026-05-17
一句话版本
Academic Research Skills 是一套為 Claude Code 開發的學術研究技能包,30 秒安裝、涵蓋從文獻搜索到論文發表的完整 pipeline——但它不幫你寫論文,而是幫你把格式、引用驗證、數據檢查這些苦工做好,讓你專注在真正的學術思考上。
核心內容
這是什麼?
ARS 是一套給 Claude Code 用的 AI 學術研究副駕駛框架。它由 4 個核心 skill 組成,覆蓋完整的研究到出版 pipeline:
1. deep-research(13 個 Agent)—— 文獻搜索、系統性回顧(PRISMA)、蘇格拉底對話引導、Semantic Scholar API 驗證、研究問題定義
2. academic-paper(12 個 Agent)—— 論文寫作、風格校準(學習你的寫作風格)、寫作品質檢查、LaTeX 加固、圖表生成與驗證
3. academic-paper-reviewer(7 個 Agent)—— 多視角同行評審(主編 + 3 位動態評審 + 魔鬼代言人),0-100 品質評分
4. academic-pipeline(10 階段流程調度器)—— 將上述三個 skill 串成完整 pipeline
Pipeline 流程
研究 → 寫作 → 誠信檢查(2.5) → 評審 → (修正循環) → 再評審 → (殘留問題循環) → 最終誠信檢查(4.5) → 定稿 → 總結
每個階段結束都有強制性的人類確認點,不是自動跳過的。
最大亮點:引用主張稽核(v3.8 新功能)
ARS 最獨特的創新是 Claim Audit(主張稽核):
- v3.7.3 為每條引用加上三層定位錨點(locator anchor)
- v3.8 新增
ARS_CLAIM_AUDIT=1開關:實際抓回每條引用指向的原始文本,判斷論文裡的主張是否真的被該引用支撐 - 發現問題時,5 類 HIGH-WARN 標記會直接在 formatter 階段攔下輸出:
- claim-not-supported(主張不被引用支撐)
- negative-constraint-violation(違反負面約束)
- fabricated-reference(引用不存在)
- anchorless(無定位錨點)
- constraint-violation-uncited(未引用但違反約束)
- 內建校準用的 20 題 gold set,FNR < 0.15、FPR < 0.10 雙閾值
這個功能的設計動機來自 Zhao 等人(2026)的 corpus-scale 研究(arXiv:2605.07723),他們審查了 arXiv、bioRxiv、SSRN、PMC 上 250 萬篇論文的 1.11 億筆引用,保守估計 2025 年單年就有 146,932 筆幻覺引用,且 bioRxiv 預印本進入正式發表後的幻覺留存率高達 85.3%。
設計哲學:人機協作,不是全自動
ARS 明確引用了 Lu 等人(2026, Nature)的 AI Scientist 論文——第一個端到端全自動 AI 研究系統雖然通過了 ICLR 盲審,但也在 Limitations 中列出了完整的結構性失敗模式:實作錯誤、幻覺結果、取巧依賴、方法偽造、引用幻覺等。
ARS 的立場: 人類研究者 + AI 的組合,比純自動或純人工都更能避開這些失敗模式。
- Style Calibration(風格校準)——從你過去的論文學習你的寫作風格,讓輸出像你而不是像機器
- Writing Quality Check——抓出讓文字讀起來像機器產的 pattern
- Disclosure Mode——生成符合投稿規範的 AI 使用聲明
安裝
/plugin marketplace add Imbad0202/academic-research-skills
/plugin install academic-research-skills
30 秒完成。裝完跑 /ars-plan 即可開始。
成本
完整 pipeline 跑一篇 15k 字的論文約 $4-6(Claude Code API 費用)。
分析
技術意義
1. 引用主張稽核(Claim Audit)是目前同類工具中獨一無二的功能。即使是最先進的論文寫作工具,也很少有人真的去抓回引用原文做逐條比對。這是 ARS 最硬的技術壁壘。
2. 架構工程密度極高:339 行的 ARCHITECTURE.md 包含流程圖、階段 × 技能 × 模式 × 資料層級 × 產物 × Agent 的完整矩陣、品質閘門、依賴圖——少見的嚴謹。
3. 數據分級制度(raw / redacted / verified_only)和 Material Passport 體現了對學術誠信的認真態度。
4. human-in-the-loop 不是口號,而是用強制 checkpoint 系統來保證的。
與我們項目的關聯
- ARS 是 Claude Code 的技能包,而 Jay 目前用 DeepSeek V4 Flash + OpenClaw 作為主要 AI 平台。不過這些 skill 的設計理念(人機協作、嚴格品質閘門、引用驗證)對任何學術寫作工具都有參考價值。
- 特別是其引用主張稽核的思路——如果 OpenClaw 的 deep research agent 也想做類似的事,可以參考 ARS 的架構:locator anchor → fetch source → judge claim → gate output。
- ARS 的 Style Calibration 思路也和我們的 AGENTS.md/SOUL.md「學習使用者聲音」的理念相通。
需要注意的點
- 只支援 Claude Code,不能直接用於 OpenClaw 或其他 agent shell。但有 Codex CLI 分發版。
- 非商業授權(CC BY-NC 4.0),不能商用。
- 作者 Imbad0202 的來歷不明——GitHub 只有這個 repo,Substack 帳號推測為 Edward Wu(edwardwu223235),台灣作者(基於繁體中文 README 和 Substack 主題)。
- v3.8.0 的 Claim Audit 目前還是 opt-in(
ARS_CLAIM_AUDIT=1),尚未預設啟用。而且作者自己也說 ARS 本身的 corpus-scale 評估仍是未來工作——也就是我們還不知道這套系統在大規模使用時的實際表現。
評分
| 維度 | 評分 | 說明 |
|---|---|---|
| 技術深度 | ⭐⭐⭐⭐⭐ | Claim Audit 的引用驗證架構目前同類獨一份 |
| 實用性 | ⭐⭐⭐⭐ | Claude Code 用戶 30 秒安裝即用,但平台限定了受眾 |
| 文檔質量 | ⭐⭐⭐⭐⭐ | ARCHITECTURE.md + POSITIONING.md + SETUP.md + 雙語 README |
| 設計理念 | ⭐⭐⭐⭐⭐ | human-in-the-loop 哲學貫徹始終,不是空洞的口號 |
| 與我們項目相關性 | ⭐⭐⭐ | 需 Claude Code 才能直接用,但理念可借鑑 |
綜合評分:8.8/10
相關連結
- GitHub 倉庫:https://github.com/Imbad0202/academic-research-skills
- Codex 分發版:https://github.com/Imbad0202/academic-research-skills-codex
- 繁體中文 README:https://github.com/Imbad0202/academic-research-skills/blob/main/README.zh-TW.md
- 架構文檔:https://github.com/Imbad0202/academic-research-skills/blob/main/docs/ARCHITECTURE.md
- Zhao et al. 引用幻覺研究:https://arxiv.org/abs/2605.07723
- 英文介紹文章:https://open.substack.com/pub/edwardwu223235/p/academic-writing-shouldnt-be-a-solo-act
- 繁體中文介紹文章:https://open.substack.com/pub/edwardwu223235/p/ai
- Scientific Agent Skills(同類項目,137 個科研 Agent Skills):https://temp.jaylab.io/scientific-agent-skills-report.html