[发布] Nexidion – 一个拥有自主本地AI后台工作器的私有知识库。
摘要
Nexidion 是一款开源的层次化 Markdown 笔记应用,内置自主运行的本地 AI 后台工作进程,可利用本地 LLM 对笔记进行重组、摘要和提取待办事项,并配备内置版本控制以确保安全。
你好!经过近两年断断续续的开发、5次彻底重写架构,以及几次碰壁,我终于将为了满足自己的隐私偏执而构建的项目开源了:**Nexidion**。
**GitHub 仓库:** [https://github.com/HabermannR/Nexidion](https://github.com/HabermannR/Nexidion)
市面上有很多“第二大脑”应用,但我不想依赖第三方云服务,更不想把敏感笔记发送到封闭的 API。更重要的是,我不只是想要一个简单的聊天窗口附着在文本编辑器上。
### 本地 LLM 角度:自主后台工作器
Nexidion 是一款层级化 Markdown 笔记应用,内置了一个可选的**自主后台工作器**,专门设计用来接入本地兼容 OpenAI 的端点(llama.cpp、Ollama、LM Studio 等)。它不仅仅是和你的笔记聊天,你可以选择一大批节点/文件夹,然后派遣这个代理去执行实际工作:
* *“将这些杂乱的笔记按主题重新组织成层级文件夹。”*
* *“总结这些子树。”*
* *“从这些会议笔记中提取所有行动项。”*
**安全网:** 让 LLM 自主组织你的笔记,如果它产生幻觉,后果会很可怕。因此,Nexidion 内置了版本控制系统。AI 在后台工作,并以 *AI 的名义* 将更改提交为新版本。每一次编辑都是完全可追溯的,如果你的本地模型把组织工作搞砸了,只需一键就能回退。没有数据库被破坏,零外部网络调用。
### 我的“穷 GPU”配置(2080 Ti)
你不需要一台多 GPU 的大机器才能让这个代理发挥作用。我就是 GPU 贫穷用户,在单张 RTX 2080 Ti(11GB 显存)上运行。目前,我使用全新的 **Qwen 3.6 35B-A3B with MTP**(具体是 `IQ3_XXS` 量化版本),搭配 llama.cpp 服务器后端。它在代理任务上表现得相当不错!
如果你也想在受限的显存上复现我的配置,下面是我用来在 2080 Ti 上塞进这个 35B 模型的具体 Docker 命令(使用了 flash attention、Q8 KV cache 和投机解码):
```bash
docker run --gpus all --rm \
-p 1234:1234 \
-v /mnt/c/.../models/unsloth/Qwen3.5-36B-A3B:/models \
havenoammo/llama:cuda12-server \
-m /models/Qwen3.6-35B-A3B-UD-IQ3_XXS.gguf \
--port 1234 --host 0.0.0.0 \
-n -1 --parallel 1 --threads 6 \
--ctx-size 100000 --fit-target 844 \
--mmap -ngl 18 --flash-attn on \
--temp 1.0 --min-p 0.0 --top-p 0.95 --top-k 20 \
--jinja \
--chat-template-kwargs '{"preserve_thinking":true}' \
--ubatch-size 512 --batch-size 2048 \
--cache-type-k q8_0 --cache-type-v q8_0 \
--spec-type ngram-mod,draft-mtp \
--spec-draft-n-max 3
```
### 快速开始
我刚刚完成了所有组件的 Docker 化,所以启动 Postgres 数据库、后端、前端和 AI 任务运行器只需一条命令:
```bash
docker compose --profile with-postgres --profile with-task-runner up -d
```
*(完整文档和设置说明在仓库中。)*
我很期待听到你的反馈!特别想听听本地 AI 社区的大家,后台代理在不同模型/量化版本下的表现如何,以及你发现哪些提示词对批量组织最有效。告诉我你的想法!
相似文章
@ziwenxu_: https://x.com/ziwenxu_/status/2053241837453029439
文章详细介绍了一个使用 Obsidian 构建自动化“Codex 知识库”的工作流,其中 AI 智能体自动导入并整理每日书签至结构化的知识库中,以降低上下文负债。
@lucaronin:Tolaria 来了!今天我发布了一款 macOS 桌面应用,用于管理 Markdown 知识库,同时让 AI 和人类都能轻松使用……
Tolaria 是一款免费、开源的 macOS 桌面应用,专为 AI 和人类共同使用而设计的 Markdown 知识库管理工具。
@cyrilXBT: https://x.com/cyrilXBT/status/2053291096076145097
本文介绍了一种通过模型上下文协议(MCP)集成 Claude Code,将 Obsidian 笔记库转变为商业操作系统的方法。文章详细阐述了其架构、文件夹结构以及利用本地文件访问功能自动化研究、内容创作和项目管理的五个专用系统。
@hellokillian:受 @karpathy 启发,打造本地 Markdown 编辑器 + 终端代理工作区
一位开发者发布了一款集成终端代理工作区的本地 Markdown 编辑器,灵感源自 Andrej Karpathy。
@rwayne: https://x.com/rwayne/status/2054523563248611675
本文详细介绍如何用Hermes Agent、Obsidian和LLM Wiki搭建一个完全自动化的本地知识库系统,实现笔记自动整理、双向链接和持久化积累。