@witcheer 的 AI Agent 全栈实战:一台 Mac Mini、$21/月、18 个 Cron 任务
> 来源: x.com/witcheer/status/2037528582298194123
> 作者: @witcheer(DeFi 从业者)
> 发布时间: 2026-03-27
> 互动: 744 赞 / 2328 书签 / 409K 浏览
> 研究时间: 2026-03-28
🎯 一句话版本
一个 DeFi 从业者在 Mac Mini 上跑 Hermes Agent(Nous Research 出品,OpenClaw 的"兄弟"框架),每月只花 $21,配了 18 个自动化研究任务 + 35 个脚本 + 6 个 Skill,实现了"睡一觉醒来 Telegram 里有完整晨报"的效果。最有价值的不是框架本身,而是他踩的坑和搭建的"上下文复利"系统。
📊 Setup 一览
| 组件 | 详情 |
|---|---|
| **硬件** | Mac Mini M4, 16GB RAM, $600, 24/7 运行 |
| **框架** | [Hermes Agent](https://github.com/nousresearch/hermes-agent)(Nous Research 开源) |
| **月费** | $21(Z.AI coding plan) |
| **渠道** | Telegram bot |
| **模型** | GLM-5(交互)+ GLM-4.7(cron)+ Qwen3.5:4b(本地压缩) |
| **Cron 任务** | 18 个 |
| **Shell 脚本** | 35 个 |
| **自定义 Skill** | 6 个 |
🧠 三模型分工——最聪明的设计
不用一个模型干所有事,而是按场景拆分:
| 用途 | 模型 | 原因 |
|---|---|---|
| 交互聊天 | GLM-5 via Z.AI | 工具调用最强,但贵 |
| 18 个 Cron 任务 | GLM-4.7 via Z.AI | 便宜,不吃交互配额 |
| 上下文压缩 | Qwen3.5:4b 本地 Ollama | 免费、无速率限制、零依赖 |
为什么要分? Z.AI coding plan 有速率限制:600 prompts / 5 小时。如果 cron 也用 GLM-5,会吃光交互配额。GLM-4.7 够用且不竞争。
压缩为什么要本地? 这是他踩过最大的坑:
cron 跑 → 产生消息 → 上下文膨胀 → 触发压缩
→ 压缩调云 API → 消耗配额 → 速率限制
→ 压缩静默失败 → 上下文无限增长
→ Agent 响应从秒级变成 10+ 分钟
他好几天没发现,以为是网络延迟。解法:本地 Ollama 跑 Qwen3.5:4b(3.4GB),零成本零限制。
⏰ 18 个 Cron 任务:自动化研究管线
这是全文最核心的部分——如何让 AI 在你睡觉时工作:
每日任务
| 时间 | 任务 | 功能 |
|---|---|---|
| 07:00 | 晨报 | 天气/币价/稳定币锚定/HN/Reddit/项目上下文 |
| 07:30 | 竞品仪表盘 | 追踪 11+ CDP 和稳定币协议 |
| 09:00 & 17:00 | Dune 监控 | 链上查询,每日两次 |
| 10:00 | 内容草稿 | 为 Telegram 频道草拟帖子 |
| 11:00 | Daily Nudge | 读所有项目上下文 → 建议今天该做什么 |
| 12:00 | 草稿审核 | 挑最佳未发布草稿,检查 voice 规则 |
| 14:00 | AI 研究 | arXiv/Reddit/HN/Techmeme |
| 18:00 | DeFi 研究 | 稳定币/RWA/治理/竞品 |
| 20:00 | Deep Dive | 选当日最有价值话题做深度分析 |
| 21:00 | 健康检查 | 监控 cron/网关/磁盘/launchd |
| 22:00 | 内容表现 | 追踪帖子数据 |
| **23:00** | **Nightly Builder** | **读取研究中发现的空缺 → 自主写代码填补** |
Nightly Builder 是最疯的那个——Agent 自己发现"缺个脚本",然后自己写。
每小时
9am-8pm 每小时跑一次突发新闻监控(RSS + TVL 变化 + 稳定币锚定异常 + 病毒推文检测)。
🔬 研究 Cron 的 13 步流程
以 research-ai 任务为例(prompt ~3000 字):
1. 来源验证规则 — "没亲自访问过的 URL 不许放进报告"
2. 上下文加载 — 读 7 个文件(记忆/日志/优先级/voice 指南/修正记录/研究归档/项目上下文)
3. 邮箱检查 — 用 Himalaya CLI 查通知邮件
4. arXiv 扫描 — 自定义 Python 脚本查最新论文
5. Nightly Builder 检查 — 昨晚自主构建了什么新工具?
6. Web 搜索 — 强制来源多样性:"先 Techmeme,再 HN,再 Reddit,最后 web search 补充"
7. 深度阅读 — 对 2-3 篇最有趣的文章做全文抓取
8. 写入发现 — "没有写入的 session 是失败的 session"
9. 草稿 — 如果值得发帖,按 voice 规则起草
10. 质量检查 — 跑 check_draft.sh,必须 ≥70/100
11. 操作日志 — 记录本次运行
12. 上下文更新 — 更新项目文件
13. 自检 — "我写入了新内容吗?如果没有,回去做第 8 步"
第 6 步的教训:如果不强制来源多样性,GLM-4.7 只会用 Reddit(因为搜索排名高)。他好几天的晨报全是 Reddit 内容才发现。
🌰 ALIVE 上下文系统:"上下文复利"
这是作者认为最有价值的部分——由 @stackwalnuts 创建的结构化上下文系统。
结构
~/world/
.alive/ # 配置
02_Life/witcheer/ # 个人品牌
04_Ventures/yari-finance/ # CDP 协议(他的主业)
04_Ventures/arcana/
05_Experiments/oz-agent/ # Agent 本身
每个"walnut"(项目容器)有 5 个核心文件:
| 文件 | 作用 |
|---|---|
| `key.md` | 身份、论点、与其他项目的关联 |
| `now.md` | 当前阶段、下一步、阻塞点 |
| `tasks.md` | 紧急 / 活跃 / 待办 |
| `insights.md` | 持久知识、经验教训 |
| `log.md` | 会话历史(最新在前) |
三层集成形成复利
Layer 1: Cron WRITE → 研究结果自动写入对应 walnut
Layer 2: Cron READ → 研究前读取 walnut 优先级(研究和项目对齐)
Layer 3: 交互 READ → Telegram 输入"walnuts"→ 10 秒跨项目总览
┌──→ 更新 tasks ──→ cron 读取新优先级
│ │
│ 研究更聚焦 ←─┘
│ │
└──── 我根据发现调整 ←──── 发现更相关
↑
每天都在变好
这就是"上下文复利"——今天的研究基于昨天的发现,明天的研究基于今天的积累。
✍️ 写作风格反馈循环
39,000 字符的写作指南 → AI 仍然产出 slop。
解法不是"写更多规则",而是记录具体修改:
prompt 说: "用第一人称写"
correction 说: "你写了'并非说这是 UST 2.0'——我删了,因为提前 hedge 会削弱专业感。别再这样做。"
151 条这样的具体记录 > 39,000 字符的抽象指南。具体胜过抽象。
💡 与我们的关联——这就是我们的"兄弟"
1. Hermes Agent ≈ OpenClaw 的亲兄弟
Hermes Agent 有 hermes claw migrate 命令——官方支持从 OpenClaw 迁移。架构几乎一样:多渠道网关 + cron + skills + memory + MCP。我们的 OpenClaw 就是这套东西。
2. 我们的 setup 对比
| 维度 | witcheer | 我们 (Jay) |
|---|---|---|
| 硬件 | Mac Mini M4 | VPS + ub2 (RTX 4090) |
| 框架 | Hermes Agent | OpenClaw |
| 模型 | GLM-5/4.7 ($21/月) | Claude Opus ($$$) |
| 渠道 | Telegram | Discord |
| Cron | 18 个 | 若干 |
| Skills | 6 个 | 多个 |
| 上下文系统 | ALIVE (walnut) | MEMORY.md + 项目文件 |
| 月费 | $21 | 显著更高 |
他的关键优势:极致省钱($21 全包),ALIVE 上下文系统的结构化程度比我们高。
我们的优势:模型质量(Claude Opus vs GLM-5,差距巨大),GPU 服务器可跑大模型。
3. 值得借鉴的
- ALIVE 系统:每个项目一个 walnut,5 个标准化文件。比我们松散的 MEMORY.md 更结构化,值得学习
- 三模型分工:我们也可以 cron 任务用 Sonnet 省钱,交互用 Opus
- Voice 反馈循环:具体修改记录 > 抽象写作指南
- 来源多样性强制:在 prompt 里写死搜索顺序
- Session idle timeout = 60 分钟:防止上下文膨胀
- "没有写入的 session 是失败的":强制 cron 写入发现
4. 他的 alpha-scanner skill 用了 Polymarket
他的 alpha-scanner 结合 Polymarket 赔率 + 稳定币流 + RWA 动量 + 社交信号做跨源信号检测——和 Jay 的 Polymarket 交易系统思路一致。
📊 评分
| 维度 | 评分(/10) |
|---|---|
| 实用性 | 9.5 — 完整可复现的教程,每个坑都写了 |
| 技术深度 | 8.5 — 13 步 cron 流程、三模型分工、压缩管道调优 |
| 原创性 | 8.0 — ALIVE 上下文系统和 voice 反馈循环是亮点 |
| 可读性 | 9.0 — 类比极佳("桌上堆满纸"、"重读日记") |
| 与我们的相关度 | **9.5** — 几乎是"平行宇宙的我们" |
| **综合** | **9.0** |
报告由深度研究助手自动生成 | 2026-03-28
来源: x.com/witcheer / Hermes Agent