为什么我们选了「LLM Knowledge Base」而不是「Memory Layer」:一次品类定位的决策日志
Karpathy 那条爆款 gist 把「LLM Knowledge Base / LLM Wiki」推成了新品类。我们在三个候选词之间纠结,「Memory Layer」纸面上明显更强——直到我们看清谁已经占了它。这是完整的决策过程。
2026 年 4 月 3 日,Andrej Karpathy 发了一条 public gist,讲他怎么手工维护一个 wiki / knowledge base,每次开新 LLM 会话都复制粘贴进去。48 小时内,「LLM Knowledge Base」和「LLM Wiki」上了 VentureBeat 和 AnalyticsIndiaMag 的头条。
这种品类形成的窗口,两年才出现一次。我们当时的落地页文案方向完全错了,蹭这波热度的窗口大概两周,再晚别人就把这个词抢走了。
这篇是完整的决策日志:我们是怎么选出新的品类锚定词的,以及为什么把那个纸面上明显更强的候选,否掉了。
起点:「AI-Native Second Brain」这条路已经堵死
KnowMine 旧版主标:
Your AI-Native Second Brain.
2024 年还能用。到了 2026 年它就是片坟场。「Second Brain / 第二大脑」是 Tiago Forte 的关键词,Notion、Obsidian、Mem、Reflect 加十几个产品共占,笔记类红海。每个「AI-native 笔记应用」听起来都一样。必须跳出去。
头脑风暴出了三个备选:
- A. "Your knowledge, finally portable."——太抽象,没有品类锚
- B. "The AI that doesn't forget you."——反面叙事,锚定的是问题不是方案
- C. 中英双语主标同屏——Google 会因为关键词密度低降权英文页
三个都崩。该上 D 选项了。
第二轮:「Memory Layer」——纸面上最显然的答案
2026 年 AI infra 圈最火的新品类,就是 memory layer for AI agents。Mem0、Zep、Letta、Supermemory、LangMem,每一家都拿这个词定义自己的产品。Mem0 刚刚就靠这个表述拿下 2400 万美元 A 轮。
那显然我们应该抢「Memory Layer」对吧?用户当时也反推过:「第二大脑」对普通人有情感价值,别把那点共鸣丢了。
我把这个论点认真正反推演了一遍,差点就发布了。然后查了一次数据,整个论点 90 分钟内崩塌。
第三轮:杀掉 Memory Layer 的三条证据
按出现顺序来。
1. Karpathy 本人刻意避开了「memory」这个词。
我回去把他原 gist 一句一句读了一遍,拿荧光笔标。他用的是 wiki, knowledge base, persistent compounding artifact。正文里「memory」这个词出现 0 次。后续生态报道(VentureBeat、AnalyticsIndiaMag、Hacker News 主帖)清一色跟着用「LLM Knowledge Base」或「LLM Wiki」,没有一家主流媒体把它叫 memory。
这波品类词的"赋词者",主动选择不用 memory。
2. Mem0 已经把「Memory Layer for AI Agents」锁死。
他们官方一句话定位就是 "Universal memory layer for AI Agents",手里 2400 万美元去守住这个词在 Google、在大会、在每一档播客上的占位。把一个 C 端个人产品硬塞进 B2B infra 的槽里,是一场我们必输的仗——而且吸引过来的用户根本不是我们想要的那种用户。
3. Karpathy 这一波和 Mem0 是两个平行宇宙。
我审过了过去四周所有相关报道。没有任何一个记者、推文主楼、播客把「Karpathy 的 wiki 想法」和「Mem0 的 memory layer」放进同一句话讨论。两边服务的人不一样(个人开发者 vs Agent 基础设施团队)、方案不一样(手抄 markdown vs 一次 API 调用)、舆论场从不交叉。
选「Memory Layer」会落进 Mem0 的宇宙,然后输。选 Karpathy 邻近的词,会落进他的宇宙,里面没有现成对手。
最终选择:「LLM Knowledge Base」
它赢在五件事上:
- Karpathy 的原词。 SEO 顺风车最大值,蹭的是场内最被引用的声音刚刚加持过的短语。
- 没有商业占位者。 sage-wiki 和 CRATE 是开源项目,不是品类主人。这个槽是空的。
- 我们的护城河刚好卡进这个槽。 Karpathy 的方案是手动复制粘贴 markdown,CRATE 和 sage-wiki 是本地 markdown 文件库。KnowMine 是第一个 MCP-native 的 LLM Knowledge Base——Claude、ChatGPT、Cursor、任何 MCP 客户端都能在对话中直接读写。这是真实的产品空位,不是话术。
- 绕开 2400 万美元的战场。 用户不同(C 端个人,不是 agent infra 团队)、场景不同(知识工作,不是 API 调用)、技术栈不同。Mem0 和我们根本不竞争。
- 场景切分站得住。 传统笔记的入口是"打开 app 手写",KnowMine 的入口是"你已经在 AI 对话里了"。两个结构完全不同的市场,新文案精准命名的就是我们这一边。
落地页改了什么
- 主标英文: The LLM Knowledge Base your AI can read and write.
- 主标中文: 你的 AI 能直接读写的知识库。
- 副标: 「不是又一个笔记应用。基于 MCP 协议原生设计——让 Claude、ChatGPT、Cursor 以及任何 MCP 客户端,在对话中直接帮你存、搜、沉淀长期知识。」
- 新的第二屏: 一个 logo 墙,展示 KnowMine 原生兼容的所有 MCP 客户端。
一点教训
新品类词破圈的时候,本能反应是去抓那个听起来最响的相邻词。不要。先把原始来源认真读一遍——浪潮的赋词者到底用的什么词?——再看看候选词谁已经占了。没有在位者、被最大声背书过的那个词,就是答案。
我们差点就发了「Memory Layer」,理由是它听起来强。数据 90 分钟内把它杀掉了。对一个要穿一整年的定位决策来说,这笔"救场成本"非常便宜。
如果你也在做 AI 时代的知识工具,品类词比 feature list 更重要。挑一个空的,挑一个屋子里最大声的人刚刚用过的。有时候这两件事是同一个词。
KnowMine 是第一个 MCP-native 的 LLM Knowledge Base——Claude、ChatGPT、Cursor、任何 MCP 客户端都能在对话中直接帮你存、搜、沉淀长期知识。免费试用 →