你的第二大脑死过几次了?

我死过三次

第一次搭的时候特认真。标签打好,结构理清,交叉链接也做了

两个月后标签过时了没人改,断链了没人修。新笔记往里一扔就不管了

再过两个月打开一看,一堆垃圾

然后重建。然后再烂尾

你是不是也这样?

本质上来说这不是你的问题。所有人的第二大脑都是这么死的:维护太累了,累到比写笔记本身还累

但有少数人已经跳出这个循环了。他们的知识库是复利的:每天都在变厚,喂给 AI 的上下文每天都在变好,输出质量每天都在拉开差距

他们用的方法来自 Karpathy。就是那个 OpenAI 创始团队、前 Tesla AI 总监的 Karpathy。这条推文几天跑了几千万曝光

Apr 3

LLM Knowledge Bases Something I’m finding very useful recently: using LLMs to build personal knowledge bases for various topics of research interest. In this way, a large fraction of my recent token throughput is going less into manipulating code, and more into manipulating

核心思路一句话:让 Claude Code 替你维护 Wiki

我花了几天把围绕这套方法的内容翻了个遍。

怎么安装,怎么录入内容,怎么修复链接问题,怎么让别的 AI 使用你的知识库

接下来一步步讲!!

你身边肯定有人也被这个问题折磨过,转发给他,省得他再烂尾一次

三步搭好

Karpathy 发了两条推文

第一条是一个模糊的想法——用大模型维护个人知识库。几千万人看了,然后大部分人照着这个想法自己瞎搞了一通

但真正的方法论在第二条。他写了一份文档,把整套系统拆成了三层:一层放原始素材,一层放 AI 整理后的知识,还有一层是规则文件,告诉 AI 该怎么维护这套东西。操作也就三种:录入、查询、修复

Apr 5

Wow, this tweet went very viral! I wanted share of a possibly slightly improved version of the tweet in an “idea file”. The idea of the idea file is that in this era of LLM agents, there is less of a point/need of sharing the specific code/app, you just share the idea, then the

讲清楚第二条的人不多。接下来就讲这个

假设你已经装好了 Obsidian 和 Claude Code。没装的话链接放在文末,几分钟的事

第一步,在 Obsidian 里建一个 Vault

Image

第二步,打开 Claude Code,用这个 Vault 文件夹

第三步,把 Karpathy 的那份规则文档贴进去。地址在这:https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f

Image

然后你就不用动了

Claude Code 会自己把整套目录建好——raw/ 放原始素材,wiki/ 放整理后的知识页面,index.md 做索引,log.md 记操作历史

Image

等它跑完,你会看到它问你一句话:「要不要录入第一篇文章?」

5 分钟,整套 Wiki 结构就搭好了

但目录结构只是个空架子。真正有意思的是你往里面扔第一篇文章的时候

第一篇文章进去之后

往 raw/ 里扔素材,手动就用 Obsidian 的 Web Clipper 插件,看到好文章直接裁剪进去。

地址:https://obsidian.md/clipper

但我这里用的是Hermes 这类 Agent 可以帮你持续收集,它爬虫能力很强, 我让它把,Karpathy 的那份规则文档贴进去贴如,raw/。

Image

在 Claude Code 里说一句:帮我录入最新文章

接下来你就看着它干活

它会先通读整篇文章,然后开始拆。先写一份摘要,再把里面提到的概念一个个提出来,每个概念建一个单独的页面。文章里提到的人物会建页面,提到的工具会建页面,提到的方法也会建页面。而且页面之间会自动做好双向链接——比如你录了一篇讲 Claude Code 的文章,Claude Code 那个页面也会链回这篇文章

然后它会更新 index.md,把新建的页面都登记进去。再在 log.md 里记一笔:什么时间录入了什么,动了哪些页面

整个过程你就说了一句"帮我录入这篇"。一篇文章下来,你的 wiki/ 里可能多出来十几个页面

Image

但最直观的不是文件数量。

打开 Obsidian 的图谱视图,你会看到一堆点和线。点是知识页面,线是它们之间的引用关系。你的笔记之间开始有结构了

Image

你只管往里面扔素材,Claude 替你把散的知识串起来

但你可能已经在想一个问题了——文章越塞越多,这个 Wiki 不会又变成一堆垃圾吗?

这次为什么不会烂尾

这个担心完全合理。之前你的第二大脑就是这么死的,对不对?

但 Karpathy 这套方法里有一个操作专门干这个事,叫修复检查

你在 Claude Code 里说一句:帮我检查一下 Wiki 的健康状况

Image

它会把整个 wiki/ 扫一遍,找四种问题:哪些页面之间说法有矛盾,哪些页面没有任何链接指向它(孤儿页面),哪些概念被反复提到但还没有自己的页面,哪些信息已经过时了被新素材推翻了

扫完之后它会给你一份报告,告诉你哪里有问题。你说修,它就修

但值得注意的是,你连这一步都可以不用自己做

把这个检查写成一个定时任务,设成每周自动跑一次。你什么都不用管,每周一早上 Wiki 自己做一次体检,自己修好

想想你之前的第二大脑是怎么死的——标签过时了你懒得改,断链了你懒得修,结构该重组了你没那个精力

现在这些事全是 Claude Code 的活。维护成本从你的时间变成了一条命令

但到这里你可能会想:花这么大功夫维护一个 Wiki,就为了记笔记?

不只是笔记

光拿来记笔记就太亏了

你自己读的话,打开图谱视图,什么概念跟什么有关系一眼就看到了。前面讲过,不重复了

Image

但更值钱的是让 AI 来读

把 wiki/index.md的地址 丢进任何一个 AI 聊天窗口里就行。这个文件里登记了你所有知识页面的标题和摘要。AI 拿到之后就能在你的知识库里搜了。你问什么,它从你自己的研究里找答案,不是从互联网上瞎编

但这还是临时的,每次聊天都要手动丢一次

更好的做法是写进 Agent 的配置文件里。

比如 Claude Code 有个 CLAUDE.md,你在里面加一句:需要了解我的时候去读这个目录下的 Wiki。从那之后这个 Agent 随时能翻你的知识库,你再也不用每次跟它解释你是谁、你在做什么了

而且你往 Wiki 里放的东西不只是收藏的文章

你可以扔一个话题进去,让 AI 不断往下拆解。比如你想搞懂一个新领域,把话题丢进去,Claude 会帮你拆成子概念,每个子概念建一个页面,你顺着读就行。这是拿 Wiki 来学习

但更有意思的是把你自己的东西放进去。你平时的思考,跟人聊完之后的复盘,对某个问题的判断。这些东西是你最独有的,互联网上搜不到

AI 拿到这些之后会越来越懂你。你让它帮你写东西,它知道你的风格。让它帮你做判断的时候,它知道你之前踩过什么坑。用得越久越好用

而且因为是分级查询,AI 先读 index 找到相关页面再去读具体内容,不用把所有笔记一股脑全塞进去。token 省得多

你建的是一个所有 AI 都能读的个人知识库,用得越久它就越懂你

第二大脑优势

到这里,从搭建到录入到修复到让 AI 使用,整套流程你都看完了

我承认这套系统有门槛。你得花 5 分钟搭起来,得花时间往里面喂素材,前期你会觉得 Wiki 里东西太少没什么用

但你想想另一种情况:你不搭。每次跟 AI 聊天还是从零开始解释你是谁,90% 的输入信息还是会蒸发掉,隔几个月还是会重建一次第二大脑然后再烂尾

搭的人和不搭的人,三个月后差距就出来了。因为知识库是复利的,每多录一篇,后面所有的查询和输出都会变好一点

今天就建一个 Vault,贴进去那份规则文档,录入你的第一篇就5 分钟的事。

Karpathy 的规则文档地址:https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f

Obsidian 下载:https://obsidian.md/

Claude Code 下载:https://claude.com/product/claude-code

觉得有用就转发给你朋友。这种东西早一天搭就早一天开始积累