AI Agent Knowledge Management 约 12 分钟

Karpathy 的 LLM Wiki 模式:让 AI 替你维护知识库

传统 RAG 每次都在重新发现知识。Karpathy 的 LLM Wiki 模式让 AI 增量维护一个持久化的知识库——Cross references 已建好、矛盾已标记、综合分析已完成。本文详解三层架构、三大操作、以及如何用 Claude Code 落地这套工作流。

LLM Wiki RAG对比 Karpathy Obsidian 知识管理 Agent工程 个人知识库 Claude Code

最近 Karpathy 发了一个 gist,提出了一个他认为更适合个人知识管理的模式:LLM Wiki

我看完之后觉得这是继 MCP 之后,又一个值得写进工具箱的理念。

RAG 的问题:每次都在重新发现知识

大多数人和 LLM 处理文档的方式是 RAG:

  1. 上传一堆文件到某个知识库
  2. 问问题时,LLM 检索相关片段
  3. 生成答案

这套流程能跑,但有一个根本缺陷:LLM 在每次问答时都要从零发现知识

LLM Wiki 的核心思想

Karpathy 的想法不一样:

Instead of just retrieving from raw documents at query time, the LLM incrementally builds and maintains a persistent wiki — a structured, interlinked collection of markdown files that sits between you and the raw sources.

翻译成人话:LLM 不只是在查询时检索,而是增量维护一个持久化的 Wiki

当你添加一篇新文档时,LLM 不会只是索引它供后续检索。它会:

知识被编译一次,然后持续保持最新。

Cross references 已经建好。矛盾已经被标记。综合分析已经完成。Wiki 随着每次添加源和每个问题而变得越来越丰富。

三层架构

LLM Wiki 模式有三个层:

作用谁操作
Raw Sources原始文档(文章、论文、图片),不可变,这是你的事实来源你(只读)
WikiLLM 生成和维护的 Markdown 文件(摘要、实体页、概念页、综合分析)LLM(完全掌控读写)
Schema指令文件(如 CLAUDE.md / AGENTS.md),告诉 LLM Wiki 的结构、约定、工作流你和 LLM 共建
Raw Sources(不可变)→ LLM 读取 → Wiki(LLM 增量维护)
                            ↑
                        Schema(指令)

关键:Wiki 完全由 LLM 读写。你只读 Wiki,LLM 写 Wiki。 这和传统笔记软件完全不同——不是你在整理,是 AI 在帮你维护。

三个核心操作

Ingest:把新文档喂给 Wiki

流程:

  1. 把新文档丢进 Raw Sources 目录
  2. 告诉 LLM”帮我处理这篇”
  3. LLM 读取文档,和你讨论要点
  4. LLM 在 Wiki 中写摘要页、更新 index、更新相关实体和概念页、追加 log 记录

一篇源文档可能涉及 10-15 个 Wiki 页面的更新。 人类做这件事会累死,但 LLM 可以轻松搞定。

Karpathy 个人偏好一次 Ingest 一篇、保持参与——他读摘要、检查更新、引导 LLM 强调什么。但你也可以批量 Ingest,取决于你的风格。

Query:向 Wiki 提问

流程:

  1. 你向 LLM 提问
  2. LLM 读取 index.md 找到相关页面
  3. 深入阅读相关页面
  4. 综合答案,并附上引用

答案可以是:Markdown 页面、对比表格、幻灯片(Marp)、图表(matplotlib)。重要的是:如果一个答案有价值,它应该被写回 Wiki 成为新页面。 你探索出的关联、分析、对比——这些不应该消失在对话历史里,应该累积进知识库。

Lint:让 Wiki 保持健康

定期让 LLM 做健康检查:

LLM 擅长提出新的问题和建议新的信息源。这个维护成本接近零,人类则会因为成本增长太快而放弃 Wiki。

两个关键文件

index.md — 内容目录

log.md — 时间线日志

index.md  ← 内容导向(是什么)
log.md   ← 时间导向(发生了什么)

实战:用 Claude Code 落地 LLM Wiki

以下是 Karpathy 给出的工作流(我补充了实操细节):

1. 建好三层目录

llm-wiki/
├── raw/           # 源文档(PDF、文章、图片)
├── wiki/          # LLM 生成和维护的页面
│   ├── index.md
│   ├── log.md
│   ├── entities/  # 实体页面(人、项目、概念)
│   ├── concepts/  # 概念页面
│   └── sources/   # 源文档摘要页
└── CLAUDE.md      # Schema(LLM 的指令文件)

2. 写好 Schema(CLAUDE.md)

# LLM Wiki Schema

## Wiki 结构
- /wiki/index.md       — 内容目录
- /wiki/log.md         — 操作日志
- /wiki/entities/      — 实体页(人/项目/公司)
- /wiki/concepts/      — 概念页(技术/方法/理论)
- /wiki/sources/       — 源文档摘要页

## Ingest 工作流
1. 读取源文档,提取关键信息
2. 写摘要页到 /wiki/sources/
3. 更新 index.md
4. 更新相关实体/概念页面(可能涉及 10-15 个文件)
5. 追加 entry 到 log.md

## Query 工作流
1. 读 index.md 找到相关页面
2. 深入阅读相关页面
3. 综合答案,附上引用
4. 如果答案有价值 → 写回 Wiki 成为新页面

## Lint 检查项
- 跨页面的矛盾说法
- 被新源更新的过时内容
- 孤儿页面(无内链)
- 缺失的交叉引用

## 输出格式
答案可以是:Markdown / 对比表格 / Marp 幻灯片 / matplotlib 图表

3. 用 Claude Code 操作 Wiki

# 启动 Claude Code,明确 Wiki 上下文
claude --prompt "
我在维护一个 LLM Wiki,目录在 ~/llm-wiki。
Schema 文件是 ~/llm-wiki/CLAUDE.md。

今天我想:
1. Ingest 这篇新文章:~/Downloads/article.pdf
2. 检查 Wiki 健康度

请按 CLAUDE.md 的工作流执行。"

4. 可选工具链

工具用途
ObsidianWiki 的 IDE,LLM 在一边改,你实时浏览结果
Obsidian Web Clipper把网页文章快速转 Markdown 进 raw 目录
qmd本地 Markdown 搜索(BM25 + vector 混合搜索 + LLM 重排)
Marp从 Markdown 生成幻灯片
DataviewObsidian 插件,查询页面 frontmatter 生成动态列表

5. Wiki 即 Git 仓库

Wiki 就是一个 Markdown 文件的 Git 仓库——免费获得版本历史、分支、协作

cd ~/llm-wiki
git add .
git commit -m "ingest: Karpathy LLM Wiki pattern"
git push  # 多端同步,协作也轻松

为什么这比 RAG 更适合个人知识管理

维度RAGLLM Wiki
知识积累❌ 每次从零发现✅ 增量编译,持续保持最新
交叉引用❌ 需要自己维护✅ LLM 自动建好
矛盾检测❌ 无✅ LLM 主动标记
维护成本索引后较低接近零(LLM 在做)
适合场景简单问答深度研究、个人成长、系统性积累
人类参与度(但做的是真正的思考工作)

RAG 是搜索引擎。LLM Wiki 是记忆养成系统

RAG 适合”快速回答一个事实性问题”——答案是现成的,检索出来就行。

LLM Wiki 适合”深度研究一个主题”——需要综合多篇文档、追踪演变、建立关联。这些工作在 RAG 里每次都要从零做,在 Wiki 里已经做好了。

适用场景

Karpathy 列了几个:

核心洞察

The tedious part of maintaining a knowledge base is not the reading or the thinking — it’s the bookkeeping.

人类放弃 Wiki 是因为维护成本增长比价值快。交叉引用要更新、摘要要修订、矛盾要标记——这些 bookkeeping 工作会吃掉所有精力。

LLM 不厌倦 bookkeeping。不遗忘更新交叉引用。一次能改 15 个文件。

人类做不了的维护,LLM 来做。人类做真正有价值的事:提出好问题、思考含义、把碎片变成意义。

这和 Vannevar Bush 1945 年设想的 Memex(个人 curated 知识库,文档间有关联)一脉相承——Bush 没能解决的是谁来维护。LLM 解决了。


你也在用 Obsidian 或类似工具管理知识吗?LLM Wiki 模式有没有让你想到什么新玩法?

相关阅读:

文档信息

京ICP备2021015985号-1