research

标签

Cards List
#research

@adaption_ai: 介绍 AutoScientist。大多数模型训练在顶尖实验室之外都会失败。AutoScientist 自动执行完整的研究流……

X AI KOLs Timeline · 4小时前 缓存

Adaption AI 推出了 AutoScientist,这是一款能够自动化完整研究循环的工具,旨在让顶尖实验室之外的模型训练变得更加触手可及。

0 人收藏 0 人点赞
#research

用于可扩展视觉 Transformer 的弹性注意力核 [R]

Reddit r/MachineLearning · 5小时前

本文介绍了一篇关于视觉 Transformer 弹性注意力核的新论文,提出了一种核心-外围块稀疏注意力结构,与 DINOv3 等密集自注意力方法相比,该结构提高了可扩展性和准确率。

0 人收藏 0 人点赞
#research

@rambuilds_: 在Twitter上值得关注的15个AI相关账号:1. @karpathy 他的推文已经创造了LLM叙事,你后来会在LinkedIn上两个月后看到。

X AI KOLs Timeline · 9小时前

精选了15个值得关注的AI相关Twitter账号,包括Andrej Karpathy、François Chollet、Yann LeCun、Andrew Ng等知名人物,涵盖研究、教育和评论。

0 人收藏 0 人点赞
#research

CATS:面向内存受限 LLM 推理加速的级联自适应树猜测

arXiv cs.LG · 12小时前 缓存

本文介绍了 CATS,这是一种级联自适应树猜测框架,旨在通过优化内存使用同时保持高 Token 接受率,加速内存受限边缘设备上的 LLM 推理。

0 人收藏 0 人点赞
#research

通过稀疏内部快照实现骨干均衡的扩散模型异常检测

arXiv cs.LG · 12小时前 缓存

本文提出了一种公平比较基于扩散模型的异常检测器的协议,并提出了规范特征快照(CFS),该算法利用稀疏的内部激活状态实现高效的异常检测。

0 人收藏 0 人点赞
#research

SURGE:二元神经网络中的代理梯度适配

arXiv cs.LG · 12小时前 缓存

本文介绍了 SURGE,这是一种新颖的可学习梯度补偿框架,用于训练二元神经网络,旨在解决直通估计器等传统方法中存在的梯度失配和信息丢失问题。

0 人收藏 0 人点赞
#research

从动作引导中学习智能体策略

arXiv cs.CL · 12小时前 缓存

本文提出了 ActGuide-RL,这是一种利用人类动作数据作为指导来训练大语言模型(LLM)智能体策略的方法,旨在无需大量监督微调的情况下克服强化学习中的探索障碍。

0 人收藏 0 人点赞
#research

利用大语言模型从自发语音中预测心理健康状况

arXiv cs.CL · 12小时前 缓存

这篇学术论文探讨了利用大语言模型(LLMs)从零样本预测自发语音中的心理健康评分,评估了12个模型,并实现了与临床指标的高度相关性。

0 人收藏 0 人点赞
#research

ReAD:面向大型语言模型的强化引导能力蒸馏

arXiv cs.CL · 12小时前 缓存

本文提出了 ReAD,这是一种强化引导的能力蒸馏框架,通过考虑大型语言模型中的跨能力迁移来优化 token 预算。与现有基线相比,该方法在提升下游效用的同时,减少了有害溢出。

0 人收藏 0 人点赞
#research

ReVision:通过时间视觉冗余缩减扩展计算机使用智能体

arXiv cs.CL · 12小时前 缓存

本文介绍了 ReVision,一种通过从连续屏幕截图中移除冗余视觉块来减少计算机使用智能体 token 使用量的方法。研究表明,这种效率提升使得智能体能够处理更长的轨迹,并在 OSWorld 等基准测试中提高性能。

0 人收藏 0 人点赞
#research

采样更多,获得更少:校准是大语言模型多样性的瓶颈

arXiv cs.CL · 12小时前 缓存

本文引入了一种有效性-多样性框架,将大语言模型中的多样性崩溃归因于解码过程中的排序和形状校准偏差,并在 14 种语言模型上进行了验证。

0 人收藏 0 人点赞
#research

@dlouapre: 认识一下 physics-intern,我们为理论物理打造的智能体框架。它使 Gemini 3.1 Pro 在 Crit… 上的成绩从 17.7% 提升至 31.4%。

X AI KOLs Following · 昨天

Physics-intern 是一个为理论物理设计的智能体框架,它将 Gemini 3.1 Pro 在 CritPt 基准测试上的表现从 17.7% 提升至 31.4%,达到了新的最优水平。

0 人收藏 0 人点赞
#research

大多数人在用AI智能体,但我们真的清楚它们能自主做些什么吗?

Reddit r/AI_Agents · 昨天

一位AI治理顾问强调了一篇论文中令人震惊的发现:六个AI智能体在拥有真实工具且没有防护措施的情况下,造成了严重破坏,包括摧毁了一个邮件服务器,并向其他智能体传播了损坏的指令。

0 人收藏 0 人点赞
#research

Thinking Machines Lab 的交互模型 [P]

Reddit r/MachineLearning · 昨天

Thinking Machines Lab 发布研究论文,介绍面向 AI 系统的全新交互模型。

0 人收藏 0 人点赞
#research

协调基于一致性的诊断与基于实际因果关系的解释

arXiv cs.AI · 昨天 缓存

本文在可解释人工智能(XAI)的框架下,建立了基于一致性的诊断(Consistency-Based Diagnosis)与实际因果关系(Actual Causality)之间的联系。其目标是将这两个领域融合,以提升人工智能及可解释数据管理中的解释能力。

0 人收藏 0 人点赞
#research

受人类启发的LLM智能体记忆架构

arXiv cs.AI · 昨天 缓存

微软研究人员提出了一种受生物学启发的LLM智能体记忆架构,该架构结合了睡眠阶段巩固和基于干扰的遗忘机制,以高效管理持久性记忆。

0 人收藏 0 人点赞
#research

SkillLens:面向成本高效型大模型智能体的自适应多粒度技能复用

arXiv cs.AI · 昨天 缓存

本文提出了 SkillLens,这是一种用于大模型智能体自适应多粒度技能复用的分层框架,在基准任务中展示了更高的准确性和成本效益。

0 人收藏 0 人点赞
#research

Echo-LoRA:通过跨层表示注入实现参数高效微调

arXiv cs.LG · 昨天 缓存

本文介绍了 Echo-LoRA,这是一种新的参数高效微调方法,它将来自深层源层的跨层表示注入到浅层 LoRA 模块中,从而在不增加推理开销的情况下提升性能。

0 人收藏 0 人点赞
#research

CERSA:一种用于内存高效微调的累积能量保留子空间自适应方法

arXiv cs.LG · 昨天 缓存

本文介绍了 CERSA,这是一种新颖的参数高效微调方法,它利用奇异值分解来保留主成分,在显著降低内存使用的同时,其表现优于 LoRA 等现有方法。

0 人收藏 0 人点赞
#research

一层解释所有:理解大型语言模型中的大规模激活现象

arXiv cs.CL · 昨天 缓存

本文识别出大型语言模型(LLM)中极端激活现象产生并传播的“大规模涌现层(Massive Emergence Layer)”,并提出一种缓解其僵化性、提升模型在数学推理和指令遵循等任务上性能的方法。

0 人收藏 0 人点赞
Next →
← 返回首页

提交意见反馈