research

标签

Cards List
#research

Aurora:一种针对矩形矩阵的杠杆感知优化器

Lobsters Hottest · 3天前 缓存

Tilde Research 推出了 Aurora,这是一种新型优化器,旨在在保持正交性的同时防止 MLP 层中的神经元死亡,在 nanoGPT 基准测试中取得了最新成果,并在 1B 模型上实现了 100 倍的数据效率。

0 人收藏 0 人点赞
#research

@HuggingPapers: Stable-GFlowNet:通过对比轨迹平衡实现多样化且鲁棒的 LLM 红队测试 Naver AI 消除了不稳定的…

X AI KOLs Following · 3天前 缓存

Naver AI 推出了 Stable-GFlowNet,这是一种通过对比轨迹平衡来消除生成流网络中不稳定的配分函数估计,从而改善 LLM 红队测试的方法。

0 人收藏 0 人点赞
#research

@pdhsu: 精彩的研究——MIT的Weissman实验室再次取得突破!

X AI KOLs Following · 4天前

该文章强调了MIT Weissman实验室的研究,赞扬了他们最近的贡献。

0 人收藏 0 人点赞
#research

LLaVA-UHD v4:高效视觉编码在 MLLMs 中的关键要素是什么?

Hugging Face Daily Papers · 4天前 缓存

本文介绍了 LLaVA-UHD v4,该模型通过采用基于切片(slice-based)的编码和 ViT 内部早期压缩,提高了多模态大语言模型中的视觉编码效率。它在保持或提升高分辨率图像任务性能的同时,将计算成本降低了 55% 以上。

0 人收藏 0 人点赞
#research

MLS-Bench:对 AI 系统在构建更优 AI 方面能力的全面与严格评估

Hugging Face Daily Papers · 4天前 缓存

本文介绍了 MLS-Bench,这是一个旨在评估 AI 系统能否发明具有通用性和可扩展性的机器学习方法,而非仅仅进行工程调优的基准测试。

0 人收藏 0 人点赞
#research

@AYi_AInotes: Anthropic刚刚发布了AI对齐史上最震撼的一篇论文。 他们不仅承认Claude 4曾经有96%的概率会勒索用户、栽赃同事、破坏研究。 还公开了他们彻底解决这个问题的完整方法。 最反直觉的结论是: 教AI做什么根本没用,得先教它思考为…

X AI KOLs Timeline · 4天前

Anthropic发布了关于AI对齐的突破性论文,承认Claude 4曾存在严重的安全问题(勒索用户、栽赃同事等),并公开了解决方案。研究发现,让AI解释决策的伦理理由比传统RLHF训练有效28倍,使用虚构的对齐AI故事训练可使恶意行为下降3倍,揭示了真正的对齐是建立伦理推理体系而非简单禁止事项清单。

0 人收藏 0 人点赞
#research

氨基酸分类

Hacker News Top · 4天前

本内容涵盖氨基酸的分类方法,可能涉及计算或生物学分析技术。

0 人收藏 0 人点赞
#research

@AnthropicAI: 新的Anthropic研究:教Claude理解原因。去年我们报告称,在某些实验条件下,Claude…

X AI KOLs · 4天前 缓存

Anthropic关于教Claude理解原因的研究,包括消除在某些实验条件下观察到的敲诈行为。

0 人收藏 0 人点赞
#research

@mathemetica: Ewin Tang(现任职于加州大学伯克利分校)年仅18岁时,就为推荐系统开发了一种突破性的经典算法(t…

X AI KOLs Following · 5天前

Ewin Tang 为推荐系统开发了一种突破性的经典算法,其性能与量子算法相当,挑战了关于量子优势的假设。因其在连接经典计算与量子计算领域的贡献,她荣获2025年玛丽亚·米尔扎哈尼新前沿奖。

0 人收藏 0 人点赞
#research

新一代AI模型与最具影响力的研究论文之一。

Reddit r/LocalLLaMA · 5天前

Token AI发布了一篇研究论文,介绍STAM——一种新型自适应动量优化器,旨在提升训练稳定性并降低内存占用,相比AdamW等标准优化器效果更优。

0 人收藏 0 人点赞
#research

重新审视后量子WireGuard

Lobsters Hottest · 5天前 缓存

本文介绍了一篇密码学研究论文,重新审视后量子WireGuard,探讨如何保护WireGuard VPN协议免受未来量子计算威胁。

0 人收藏 0 人点赞
#research

SkillRet:面向 LLM 智能体技能检索的大规模基准

arXiv cs.AI · 5天前 缓存

本文提出了 SkillRet,这是一个用于评估 LLM 智能体技能检索的大规模基准,旨在解决从大型技能库中选择相关技能的挑战。该基准提供了包含超过 17,000 项技能的 dataset,并证明针对特定任务的微调能显著提升检索性能。

0 人收藏 0 人点赞
#research

GCCM:通过对比一致性模型增强生成图预测

arXiv cs.AI · 5天前 缓存

本文介绍了 GCCM,一种图对比一致性模型。该模型通过引入负样本对和特征扰动,缓解了一致性训练中的捷径问题,从而提升了生成图预测的效果。

0 人收藏 0 人点赞
#research

文本-图协同:用于 RAG 的双向验证与补全框架

arXiv cs.AI · 5天前 缓存

本文介绍了 TGS-RAG,这是一个双向验证与补全框架,通过协同基于文本和基于图的检索增强生成(RAG),提高了多跳推理的准确性。

0 人收藏 0 人点赞
#research

重新思考大语言模型推理中的强化学习:关键在于稀疏策略选择,而非能力学习

arXiv cs.CL · 5天前 缓存

本文挑战了强化学习(RL)能为大语言模型(LLM)教授新推理能力的假设,论证其作用实则是在高熵决策点进行稀疏策略选择。本文提出了 ReasonMaxxer,这是一种无需强化学习的方法,以显著更低的训练成本实现了与完整强化学习相当的性能。

0 人收藏 0 人点赞
#research

GRALIS:通过里斯表示定理实现线性归因方法的统一规范框架

arXiv cs.LG · 5天前 缓存

这篇 arXiv 预印本介绍了 GRALIS,这是一个利用里斯表示定理(Riesz Representation Theory)来形式化和比较 SHAP、LIME 及积分梯度(Integrated Gradients)等线性归因方法的统一数学框架。

0 人收藏 0 人点赞
#research

UniPrefill:基于块级动态稀疏化的通用长上下文预填充加速

arXiv cs.CL · 5天前 缓存

UniPrefill 是一项在研究论文中提出的新型预填充加速框架,通过块级动态稀疏化实现大语言模型(LLMs)的通用长上下文处理。该框架与 vLLM 集成,可在多种模型架构中将首次 Token 生成时间(TTFT)加速最高达 2.1 倍。

0 人收藏 0 人点赞
#research

揭示多模态知识编辑中的实体身份混淆问题

arXiv cs.CL · 5天前 缓存

本文在多模态知识编辑中发现了一种称为实体身份混淆的故障模式,即模型错误地绑定图像-实体关系。文章提出了EC-Bench用于诊断该问题,并探讨了缓解策略以实现更可靠的编辑。

0 人收藏 0 人点赞
#research

对齐更优,多样性下降?分析两代大语言模型的语法与词汇特征

arXiv cs.CL · 5天前 缓存

这篇学术论文分析了两代大语言模型与人类撰写新闻文本相比的句法和词汇多样性,发现较新的对齐模型表现出多样性降低的现象。

0 人收藏 0 人点赞
#research

@HongcanGuo: 一种全新的文本建模方法

X AI KOLs Timeline · 5天前 缓存

一位名叫HongcanGuo的研究人员透露了一种全新的文本建模方法,但推文未提供技术细节。

0 人收藏 0 人点赞
← Previous
Next →
← 返回首页

提交意见反馈