Karpathy 的 LLM Wiki 说对了方向,但它还卡在本地——云原生 + MCP 优先才是落地
Karpathy 用一份 gist 把「LLM 编译知识库」推成热词,方向完全正确。但他的实现方式有三个天花板:规模、本地锁定、人工驱动。KnowMine 已经把这套模式做成云原生 + MCP 优先,解决了这三件事。
这一波为什么重要
Andrej Karpathy 这周发的 LLM Wiki gist 在圈里刷屏了,讲的是一件很对的事:LLM 应该持续编译和维护一个结构化知识库,而不是每次对话都从零开始。这话戳中了当前大多数人用 AI 的根本毛病。
KnowMine 做的就是这件事。产品上线几个月了,11 个 MCP 工具、pgvector 语义搜索、SOUL 用户画像层都在跑。读到 Karpathy 的 gist 时我的第一反应不是"好思路",而是"我们已经发了,而且三个他没解决的问题,我们都解决了"。
这篇不是来挑刺的,是一封致敬信。同时想聊聊:把同一套洞察做成云原生、MCP 优先的产品,和他那份本地 gist 有什么工程上的差异。
Karpathy 方案撞到的三堵墙
第一堵:规模。 Karpathy 说大约 100 个源、几百页内容的规模下,一个索引文件就够了,不用向量库。这话在那个规模下是对的。但知识库会长大。到 500 条以上、涉及跨领域概念的时候,关键词匹配和索引扫描会失效,必须上语义相似度。KnowMine 从第一天就是 pgvector + text-embedding-3-small,每条知识保存时自动向量化,相关内容自动浮出来。
第二堵:本地锁定。 Karpathy 的工作流需要你在本地开 Claude Code 或 Codex,配上本地 Obsidian。这意味着知识库绑死在一台机器、一次会话里。KnowMine 把整个知识库暴露为远程 MCP 端点,任何兼容 MCP 的 Agent(Claude Code、OpenCode、自研 Agent)都能从任何地方读写同一个库。
第三堵:人工驱动。 在 Karpathy 的流程里,你得主动"导入"源,再主动"查询"Wiki,LLM 只在被提示时才动。KnowMine 的 MCP 工具允许 AI Agent 在对话中主动存知识——我们管这叫"对话式知识捕获"。你跟 Claude 聊一个问题,它在不打断对话节奏的前提下,帮你把洞察存下来。
架构对照
同一哲学,不同实现
| 层级 | Karpathy 方案 | KnowMine |
|---|---|---|
| 原始源 | 本地 raw/ 目录 | MCP add_knowledge 工具接入任意内容——文本、URL、语音转写 |
| 知识库 | LLM 写的 Markdown 文件 | pgvector 索引的条目,自动打标签、自动归类、自动嵌入 |
| 规则/模式 | CLAUDE.md / AGENTS.md | SOUL 画像(AI 生成的用户模型)+ 文件夹预设 |
MCP 接入后是什么体感
AI Agent 在对话里把知识存进 KnowMine 时,长这样:
Tool: add_knowledge
Input: {
"content": "Karpathy 的 LLM Wiki 模式验证了...",
"type": "insight",
"tags": ["competitive-analysis", "knowledge-management"]
}
不需要文件系统。不需要本地 Agent。不需要配置。知识瞬间被向量化、打标签、可检索。
11 个 MCP 工具,不只是 CRUD
add_knowledge/update_knowledge/delete_knowledge:基础增删改search_my_knowledge:跨全库的语义向量搜索get_related_knowledge:发现知识之间的隐藏关联save_memory/recall_memory:跨会话持久化 AI 记忆get_soul:拉取 AI 生成的用户画像get_insight:AI 驱动的知识模式分析list_folders:浏览知识组织结构
Karpathy 那份 gist 里我们正在照搬的好点子
好想法就该大方承认在抄。gist 里有几条我们在做融合:
Lint 操作。 定期对知识库做一次 AI 体检——找矛盾、孤岛条目、过期信息、缺失关联。KnowMine 的 get_insight 是雏形,完整的"知识 Lint"已经排进 roadmap。
好答案会自己变成新页面。 这个反馈闭环——探索复利式地沉淀成长期知识——正是 save_memory 和 add_knowledge 在对话中做的事。Karpathy 把它命名为"知识复利",这个词选得很准。
用户可控的 Schema 层。 让用户定义知识怎么组织,是个强设计。这跟我们规划中的文件夹预设功能一拍即合。
谁该用哪一个
Karpathy 方案适合:
- 开发者,熟悉 Claude Code 或 Codex
- 希望数据完全锁在本地
- 喜欢 Obsidian 的图谱视图和插件生态
- 知识库聚焦单一主题,规模在 100 源量级
KnowMine 适合:
- 希望 AI Agent 远程读写知识库
- 跨一个持续增长的库做语义搜索
- 想要零配置:不装本地 Agent、不折腾文件
- 同时用多个 AI 工具,需要一个共享的知识层
- 希望 AI 在对话里主动帮你存知识
两个一起用也行: 没有谁规定不能 KnowMine 作为"编译后的知识层",本地 Obsidian 放原始源。MCP 本来就是互操作协议,这是它的意义所在。
5 分钟上手
- 去 knowmine.ai 拿你的 MCP 密钥
- 把 MCP 端点加进 Agent 配置:
knowmine.ai/api/mcp?key=YOUR_KEY - 跟 Agent 说:"把这个洞察存到我的知识库"——直接就能用
- 语义搜索:"我关于知识管理都知道些什么?"——按语义而不是关键词把相关条目拉出来
Memex 兑现的那一天
Karpathy 引了 Vannevar Bush 1945 年的 Memex 愿景:一个个人知识库,文档之间的连接和文档本身一样重要。Bush 当年没解决"谁来维护"这件事。Karpathy 说 LLM 能解决。我同意,而且下一步是:让这个被维护好的知识库,通过标准协议,从任何地方被你用的每一个 AI Agent 访问到。
这就是 MCP 优先的含义。你的知识不该被锁在一个工具、一台机器上。它应该是一项任何 AI 都能调用的服务。