@InduTripat82427:卧槽……Andrej Karpathy 抛出“LLM Wiki”概念的一个月前,已经有人把它做出来了。不是纸上谈兵,不是炒作,是真·能跑的系统。
摘要
在 Andrej Karpathy 公开“LLM Wiki”想法的一个月前,就有人实现了可运行的系统,解决了 LLM 每次从零开始、没有记忆也无法自我进化的痛点。
卧槽……Andrej Karpathy 抛出“LLM Wiki”概念的一个月前,已经有人把它做出来了。不是理论,不是炒作,是真·能跑的系统。现在的 LLM 每次都得从零重启,没有记忆、不会进化、也无法学习——这根本是残缺的。大多数人还在用 CLAUDE.md /
查看缓存全文
缓存时间: 2026/04/21 19:25
我靠……Andrej Karpathy 提出“LLM Wiki”构想的整整一个月前,已经有人把它做出来了。不是理论,不是炒作,是一套能跑的系统。
今天的 LLM 每次对话都从零开始,没有记忆、不会进化、无法学习——这根本是残废。
大多数人还在用 CLAUDE.md /
相似文章
@LearnWithBrij:卧槽……Andrej Karpathy 抛出“LLM Wiki”概念的一个月前,已经有人默默做出来了。不是理论,不是炒作,是实打实能跑的系统。
一位独立开发者在 Andrej Karpathy 公开相同想法的几周前,就已悄然上线了一套可工作的“LLM Wiki”系统——为语言模型提供持久记忆。
@Suryanshti777: https://x.com/Suryanshti777/status/2053144730108829706
这篇文章探讨了 Andrej Karpathy 提出的“LLM Wiki”概念,认为这是传统 RAG 的范式转变,主张通过维护一个持久且不断演化的知识基底,可以实现知识的复合式理解,而非无状态的检索。
@NainsiDwiv50980:RAG 可能已经过时。一个月前,Andrej Karpathy 发布了一个名为 “LLM Wiki” 的简单 GitHub gist。不……
Andrej Karpathy 的 “LLM Wiki” 概念正在激发一个专注于持久 AI 记忆和自维护知识库的快速开发者生态系统,这可能使传统 RAG 过时。
@akshay_pachaar:Karpathy 维基 2.0:让知识“动”起来
Akshay Pachaar 建议把 Karpathy 的静态维基拓展到动态知识领域,指出 LLM 早已能对注意力机制这类稳定主题进行自动整合与交叉引用。
@omarsar0:受 @karpathy 的 LLM 知识库想法启发的 LLM Artifacts,我一直在构建一种生成动态产物的有趣方式……
受 @karpathy 的 LLM 知识库想法启发,我一直在构建 LLM Artifacts:一种有趣的方式,可以从这些知识库中生成动态产物,旨在发现并揭示有意义且更深层的洞察。LLM 知识库对人类来说很难直接理解消化,正如我