MemPalace — 最高分 AI 记忆系统,完全免费

来源: GitHub | ScriptByAI | Substack

日期: 2026-04-07

研究者: 托尼 🦾

一句话版本

MemPalace 是一个完全本地运行的 AI 记忆系统——用古希腊记忆宫殿的隐喻组织所有对话历史,通过 AAAK 压缩方言实现 30x 无损压缩,LongMemEval 基准 96.6% 召回率,年费不到 $10。由演员 Milla Jovovich(生化危机、第五元素)和工程师 Ben Sigman 联合创建

背景:演员做的 AI 记忆项目?

没错。Milla Jovovich 在 Instagram 上记录了灵感来源:几个月来她仔细整理 AI 对话,发现即使组织最好的文件,LLM 检索效果也很差。

她借鉴古希腊演说家使用的 记忆宫殿法(method of loci),设计了虚拟宫殿结构。工程师 Ben Sigman 负责实现、压缩方言和集成。

GitHub 热度:5.1k stars, 506 forks(发布几小时内)。

核心哲学

> "Store everything, then make it findable."

对比竞品

宫殿架构

灵感来自古希腊记忆宫殿:把想法放进想象建筑的房间里,走路就能找到。


┌─────────────────────────────────────────────────────────────┐
│ WING: 人物                                                 │
│                                                              │
│ ┌──────────┐  ──hall──  ┌──────────┐                       │
│ │ Room A   │            │ Room B   │                       │
│ └────┬─────┘            └──────────┘                       │
│      │                                                       │
│      ▼                                                       │
│ ┌──────────┐            ┌──────────┐                       │
│ │ Closet   │  ───▶      │ Drawer   │                       │
│ └──────────┘            └──────────┘                       │
└─────────┼──────────────────────────────────────────────────┘
          │
       tunnel
          │
┌─────────┼──────────────────────────────────────────────────┐
│ WING: 项目                                                 │
│         │                                                   │
│ ┌────┴─────┐  ──hall──  ┌──────────┐                       │
│ │ Room A   │            │ Room C   │                       │
│ └────┬─────┘            └──────────┘                       │
│      │                                                       │
│      ▼                                                       │
│ ┌──────────┐            ┌──────────┐                       │
│ │ Closet   │  ───▶      │ Drawer   │                       │
│ └──────────┘            └──────────┘                       │
└─────────────────────────────────────────────────────────────┘
层级说明
**Wing**一个项目或一个人
**Room**Wing 下的具体主题(auth、billing、deploy...)
**Hall**同一 Wing 内相关 Room 的连接
**Tunnel**跨 Wing 的 Room 连接(如 auth-migration 同时出现在人物和项目 Wing)
**Closet**压缩摘要,指向原始内容
**Drawer**原始逐字文件,永不摘要

关键:Halls 和 Rooms 不是装饰——实测带来 34% 检索提升

AAAK 压缩方言

AAAK = "A lossless shorthand dialect designed for AI agents"

维度英文AAAK
Token 数~1000~120
压缩比1x**30x**
信息丢失**零**
可读性人类可读仅 AI 可读
兼容性Claude、GPT、Gemini、Llama、Mistral 全支持
解码器不需要
Fine-tuning不需要

实际效果:你的 AI 醒来只加载 ~170 tokens,就知道你的团队、项目、偏好。

基准测试

LongMemEval(22,000+ 真实对话记忆)上测试:

配置R@5R@10
全部 Closet96.6%60.9%
+ Haiku Rerank**100%**

宫殿结构的检索提升

检索范围R@10提升
所有 Closet(平面搜索)60.9%基准
Wing 内搜索73.1%+12%
Wing + Hall84.8%+24%
Wing + Room**94.8%****+34%**

零 API 调用:纯本地,ChromaDB + SQLite。

AAAK 压缩方言详解

AAAK = 一种给 AI 读的缩写方言。 把自然语言压缩成结构化速记,信息不丢,token 数暴降。

实际例子

原文(~1000 tokens):

> "Priya manages the Driftwood team: Kai (backend, 3 years), Soren (frontend), Maya (infrastructure), and Leo (junior, started last month). They're building a SaaS analytics platform. Current sprint: auth migration to Clerk. Kai recommended Clerk over Auth0 based on pricing and DX."

AAAK 压缩后(~120 tokens):


TEAM: PRI(lead) | KAI(backend,3yr) SOR(frontend) MAY(infra) LEO(junior,new)
PROJ: DRIFTWOOD(saas.analytics) | SPRINT: auth.migration→clerk
DECISION: KAI.rec:clerk>auth0(pricing+dx) | ★★★★

为什么叫 AA AK?

项目 README 写了 "Don't ask — it's a whole story of its own"。名字来历是个谜。

和 zip 的区别

zipAA AK
原理二进制压缩语义压缩
LLM 可读
需要解码器
信息保留无损无损
人类可读解压后像天书,但 AI 秒懂

类比:古代速记术,给机器用的版本。

成本对比

假设 6 个月的 AI 使用 = 1950 万 tokens:

方案加载 Token年费
粘贴全部19.5M(装不下)不可能
LLM 摘要~650K~$507/yr
**MemPalace wake-up**~170~**$0.70/yr**
**MemPalace + 5 次搜索**~13,500~**$10/yr**

使用流程


# 安装
pip install mempalace

# 初始化
mempalace init ~/projects/myapp

# 挖掘数据
mempalace mine ~/projects/myapp                    # 项目文件
mempalace mine ~/chats/ --mode convos              # 对话导出
mempalace mine ~/chats/ --mode convos --extract general  # 自动分类

# 搜索
mempalace search "why did we switch to GraphQL"

# MCP 连接(Claude/ChatGPT/Cursor)
claude mcp add mempalace -- python -m mempalace.mcp_server

三种挖掘模式

1. projects:代码、文档、笔记

2. convos:Claude / ChatGPT / Slack 导出

3. general:自动分类为 decisions / preferences / milestones / problems / emotional context

记忆层级

内容Token何时加载
L0身份(AI 是谁)~50始终
L1关键事实(团队、项目、偏好)~120 (AAAK)始终
L2Room 回忆(近期会话、当前项目)按需话题相关时
L3深度搜索(语义查询所有 Closet)按需明确询问时

AI 醒来只加载 L0 + L1(~170 tokens),搜索只在需要时触发。

MCP 集成

提供 19 个 MCP 工具,覆盖:

与其他记忆方案对比

方案存储方式压缩本地费用召回率
**MemPalace**宫殿结构 + DrawerAAAK 30x~$10/yr96.6% R@5
OpenClaw Dreaming三阶段评分筛选API 成本未公开
Mem0向量 + LLM 提取⚠️API 成本未公开
ChatGPT Memory自动保存事实订阅费未公开
Zep向量知识图谱$50+/月未公开

MemPalace 的独特之处:存所有原始内容 + 结构化检索 + 30x 压缩 + 零 API 调用。

具体例子:项目经理的 3 个项目

初始化


mempalace init ~/projects/

自动创建 3 个 Wing:


wing_driftwood/    ← SaaS 项目
wing_phoenix/      ← 移动 App
wing_opus/         ← 内部工具

挖掘历史对话


mempalace mine ~/chats/ --mode convos --extract general

自动分类放进 Rooms:


wing_driftwood/
├── hall_facts/
│   └── auth-migration/     ← "团队决定用 Clerk 替代 Auth0"
│   └── database-switch/    ← "从 MySQL 迁到 Postgres"
├── hall_events/
│   └── outage-2026-03/     ← "3 月那次线上故障"
├── hall_advice/
│   └── pricing-strategy/   ← "Kai 建议阶梯定价"

AAAK 压缩示例

原始(~1000 tokens):

> "Priya manages the Driftwood team: Kai (backend, 3 years), Soren (frontend), Maya (infrastructure), and Leo (junior, started last month). They're building a SaaS analytics platform. Current sprint: auth migration to Clerk. Kai recommended Clerk over Auth0 based on pricing and DX."

AAAK 压缩后(~120 tokens):


driftwood(wing) → priya(mgr), kai(be,3y), soren(fe), maya(infra), leo(jr,1m)
sprint(auth-migration) → clerk(auth0↔clerk, kai→pricing, dx)

3 个月后的搜索

你问 Claude:"我们当时为什么选 Clerk 而不是 Auth0?"

隧道(Tunnel)的妙处

同一个 auth-migration 话题跨多个 Wing 自动连接:


wing_kai / hall_events / auth-migration → "Kai 调试了 OAuth token 刷新"
wing_driftwood / hall_facts / auth-migration → "团队决定迁移到 Clerk"
wing_priya / hall_advice / auth-migration → "Priya 批准了 Clerk 而非 Auth0"

搜 "auth" 同时找到三个人、项目和建议的关联。

链接

评分

维度评分说明
设计理念⭐⭐⭐⭐⭐"存一切,让它们可检索"——正确的方向
基准表现⭐⭐⭐⭐⭐96.6% R@5,零 API 调用
压缩技术⭐⭐⭐⭐⭐AAAK 30x 无损压缩,任何 LLM 都能读
本地化⭐⭐⭐⭐⭐ChromaDB + SQLite,完全离线
实用性⭐⭐⭐⭐☆刚发布,生态还在建设
惊喜度⭐⭐⭐⭐⭐Milla Jovovich 做的 AI 记忆项目??
**综合****4.5/5**AI 记忆领域最强开源选手