@rohanpaul_ai: 冻结的LLM在其隐藏状态深处仍携带可读的行为信号。Proprioceptive AI已创建了Cy…
摘要
Proprioceptive AI发布了Cygnus,这是一款为冻结的LLM配备自感知适配器的工具,通过gl(4,R)李代数读取内部隐藏状态以隔离暗模式,将Qwen-32B在ARC-Challenge上的分数从82.2%提升到94.97%,仅使用一张RTX 3090且无需重新训练。
冻结的LLM在其隐藏状态深处仍携带可读的行为信号。Proprioceptive AI创建了Cygnus,让LLM能够感知自身的内部思维模式,从而显著提高准确性。这使得Qwen-32B在ARC-Challenge上的分数从82.2%跃升至94.97%,仅需一张RTX 3090。因此,Cygnus为冻结的LLM配备了自感知适配器,能够读取其内部认知几何结构。这些适配器将隐藏状态投射到由gl(4,R)李代数定义的数学空间中,以隔离暗模式。那些暗模式包含了被标准归一化抹去的大部分与准确率相关的信号。这种设计带来了显著的基准性能提升,且无需任何模型再训练。令人惊叹的是,对激活几何结构的数学洞察能够在不进行完整再训练的情况下提高可靠性。他们目前在其droplet上支持多达50,000名并发用户。
相似文章
PYTHALAB-MERA:面向冻结LLM代码代理的验证驱动记忆、检索与接受控制
本文介绍了 PYTHALAB-MERA,这是一种用于冻结本地大语言模型(LLM)的外部控制器,通过基于验证的记忆和检索机制来提升代码代理的性能。与自我修正基线方法相比,该方法利用执行反馈和时间差分学习,在严格验证任务中展现出更高的成功率。
在单个16GB GPU + 64GB RAM上的本地LLM自动补全与代理式编码
使用 llama.cpp 在单块 16GB GPU 及 64GB+ 内存上设置本地 LLM 自动完成(Qwen2.5-Coder-7B)与代理编码(Qwen3.6-35B-A3B)的技术指南,包含命令与性能基准。
@DivyanshT91162: 每个人都被云端的AI代理分心……与此同时,一些人悄悄地把他们的笔记本电脑变成了自主AI…
描述如何将笔记本电脑变成一台24/7全天候自主AI研究机器,使用 Qwen3-35B-A3B、llama.cpp 和 Unsloth 的4位量化,无需云或GPU服务器。
@sudoingX:更新:Qwen 3.6 27b dense q4 在单张 3090 上一次生成了 Octopus Invaders 游戏。Hermes Agent 驱动了整个事…
用户基准测试表明,Qwen 3.6 27B dense 模型(Q4 量化)能够在单张 RTX 3090 上通过单次提示自主生成一个完全可玩的多文件游戏,性能显著优于其前代版本,且无需任何人工干预。测试结果突显了在消费级硬件上本地代码生成和智能体能力方面的重大改进。
@ClementDelangue:笔记本上本地开放权重 AI 的进步速度已超过摩尔定律的两倍!从 2024 年 5 月到 202…
Hugging Face CEO Clement Delangue 表示,在硬件配置不变的情况下,笔记本端本地开放权重 AI 的性能提升速度已达摩尔定律的 4.7 倍,并以模型从 Llama 3 70B 演进至 DeepSeek V4 Flash 的进展作为佐证。