@akshay_pachaar:Karpathy 维基 2.0:让知识“动”起来
摘要
Akshay Pachaar 建议把 Karpathy 的静态维基拓展到动态知识领域,指出 LLM 早已能对注意力机制这类稳定主题进行自动整合与交叉引用。
Karpathy 的维基只适用于“静止”的知识。像“注意力机制”这样的条目,一年前写和现在写几乎一样有用。LLM 读资料、提炼观点、生成干净文章并自动交叉链接,你再也不用……
查看缓存全文
缓存时间: 2026/04/23 07:49
Karpathy 的维基构想之后:Karpathy 的 wiki 只适用于“静止”的知识。一篇讲注意力机制的文章,今天和一年前一样有用。LLM 读取资料、提炼观点、写出清晰条目并交叉链接,你再也不用……
相似文章
@Suryanshti777: https://x.com/Suryanshti777/status/2053144730108829706
这篇文章探讨了 Andrej Karpathy 提出的“LLM Wiki”概念,认为这是传统 RAG 的范式转变,主张通过维护一个持久且不断演化的知识基底,可以实现知识的复合式理解,而非无状态的检索。
@InduTripat82427:卧槽……Andrej Karpathy 抛出“LLM Wiki”概念的一个月前,已经有人把它做出来了。不是纸上谈兵,不是炒作,是真·能跑的系统。
在 Andrej Karpathy 公开“LLM Wiki”想法的一个月前,就有人实现了可运行的系统,解决了 LLM 每次从零开始、没有记忆也无法自我进化的痛点。
@LearnWithBrij:卧槽……Andrej Karpathy 抛出“LLM Wiki”概念的一个月前,已经有人默默做出来了。不是理论,不是炒作,是实打实能跑的系统。
一位独立开发者在 Andrej Karpathy 公开相同想法的几周前,就已悄然上线了一套可工作的“LLM Wiki”系统——为语言模型提供持久记忆。
@NainsiDwiv50980:RAG 可能已经过时。一个月前,Andrej Karpathy 发布了一个名为 “LLM Wiki” 的简单 GitHub gist。不……
Andrej Karpathy 的 “LLM Wiki” 概念正在激发一个专注于持久 AI 记忆和自维护知识库的快速开发者生态系统,这可能使传统 RAG 过时。
@omarsar0:受 @karpathy 的 LLM 知识库想法启发的 LLM Artifacts,我一直在构建一种生成动态产物的有趣方式……
受 @karpathy 的 LLM 知识库想法启发,我一直在构建 LLM Artifacts:一种有趣的方式,可以从这些知识库中生成动态产物,旨在发现并揭示有意义且更深层的洞察。LLM 知识库对人类来说很难直接理解消化,正如我