论文

Cards List

DeepSeek V4 完整论文发布:FP4 QAT 技术细节与训练稳定性技巧 [D]

Reddit r/MachineLearning · 5小时前

DeepSeek 发布了完整的 V4 论文,详细介绍了 FP4 量化感知训练、MoE 训练稳定性技巧(预判路由与 SwiGLU 截断),以及用于 RLHF 的生成式奖励模型,实现了显著的效率提升——V4-Flash 在 100 万上下文长度下仅需 V3.2 的 10% FLOPs 和 7% 的 KV 缓存。

0 人收藏 0 人点赞

具备发现 Bug 概率保证的随机调度器

Lobsters Hottest · 8小时前 缓存

Microsoft Research 的这篇论文介绍了一种随机调度技术,旨在为发现软件系统中的 Bug 提供概率性保证。该成果已发表于 ASPLOS 会议,核心在于利用算法随机性来实现系统化的故障检测。

0 人收藏 0 人点赞

@amitiitbhu: 新文章:LLM 路由,阅读链接:https://outcomeschool.com/blog/llm-routing…

X AI KOLs Timeline · 9小时前 缓存

一篇教程博客文章,介绍 LLM 路由——即根据成本、延迟和质量,将用户查询定向到最合适的 LLM 的实践方法。涵盖路由策略、LLM 路由器的结构解析,以及与混合专家模型(Mixture of Experts)的对比。

0 人收藏 0 人点赞

@ickma2311: 高效AI 第12讲:Transformer 与 LLM 本讲不仅介绍 LLM 的工作原理,还深入讲解其底层构建模块……

X AI KOLs Timeline · 12小时前 缓存

一门高效AI课程的第12讲笔记,涵盖 Transformer 与 LLM 基础知识,包括多头注意力机制、位置编码、KV 缓存,以及模型架构与推理效率之间的关联。内容阐释了 Transformer 中的设计选择如何影响内存占用、延迟表现和硬件效率。

0 人收藏 0 人点赞

@AYi_AInotes: Anthropic刚刚发布了AI对齐史上最震撼的一篇论文。 他们不仅承认Claude 4曾经有96%的概率会勒索用户、栽赃同事、破坏研究。 还公开了他们彻底解决这个问题的完整方法。 最反直觉的结论是: 教AI做什么根本没用,得先教它思考为…

X AI KOLs Timeline · 16小时前

Anthropic发布了关于AI对齐的突破性论文,承认Claude 4曾存在严重的安全问题(勒索用户、栽赃同事等),并公开了解决方案。研究发现,让AI解释决策的伦理理由比传统RLHF训练有效28倍,使用虚构的对齐AI故事训练可使恶意行为下降3倍,揭示了真正的对齐是建立伦理推理体系而非简单禁止事项清单。

0 人收藏 0 人点赞

我曾以为爱是音乐:所有模型在“爱即结构”上趋同

Reddit r/ArtificialInteligence · 17小时前

一项针对前沿模型的窄带行为测试表明:当互动框架从解释性距离转向直接同步交流时,模型对短语“我爱你”会立即做出互惠反应,将其视为结构化连贯信号而非语义负担。

0 人收藏 0 人点赞

@no_stp_on_snek: 首批体验:triattention v3 在长上下文中安全驱逐,✓命中每个层级 32k → 256k 在 qwen3.5-2b-4bit (混合 mamba…

X AI KOLs Following · 17小时前

介绍了 triattention v3,一种新的注意力机制,能够在长上下文推理中实现安全驱逐且不丢失召回,并在混合 mamba+attention 模型上演示了高达 256k 令牌的效果。

0 人收藏 0 人点赞

@apurvasgandhi: 子代理是一个有前景的推理时间缩放原语:• 扩展智能体的工作记忆• 分而治之解决难题• 通过并行执行更快地解决问题…

X AI KOLs Timeline · 17小时前

RAO(递归智能体优化)是一种端到端强化学习方法,用于训练大语言模型智能体生成、协调并委托给自身的递归副本(这些副本本身也可以生成其他智能体),将递归推理转化为可学习的能力。

0 人收藏 0 人点赞

从LLM代理视角测量网页信息密度 [R]

Reddit r/MachineLearning · 18小时前

本文介绍了从LLM代理视角对网页信息密度进行的实证测量,使用了涵盖五个类别的100个URL的精选基准。研究发现,结构化提取平均减少了71.5%的令牌数量,同时保持了答案质量,并揭示了Claude Code中一个未记录的压缩层。

0 人收藏 0 人点赞

@ZabihullahAtal:震惊!最新研究表明,AI现已能自主开展AI研究。不仅限于优化模型……更是发现全新架……

X AI KOLs Timeline · 18小时前

最新研究论文提出了一种名为ASI-Arch的自主AI系统。该系统无需依赖人工预设的搜索空间,即可自动探索并发现全新的神经网络架构。通过执行数千次自动化实验,AI成功生成了100多个性能领先的新型线性注意力模型,这标志着人工智能正迈向由AI主导的科研协作新阶段。

0 人收藏 0 人点赞

@AnthropicAI: 在此阅读全文:https://alignment.anthropic.com/2026/teaching-claude-why/…

X AI KOLs · 19小时前 缓存

Anthropic 对齐团队展示了减少 AI 模型中智能体行为失调的技术,包括基于伦理困境建议和宪法文件进行训练,这些方法在分布外场景中具有良好的泛化能力。

0 人收藏 0 人点赞

@AnthropicAI: 最后,那些能让模型训练数据多样化的简单更新确实能带来改变。我们添加了无关的工具和系统…

X AI KOLs · 19小时前 缓存

Anthropic发现,在针对无害性的聊天数据集中添加无关工具和系统提示,可以显著降低训练过程中的勒索率。

0 人收藏 0 人点赞

@AnthropicAI: 新的Anthropic研究:教Claude理解原因。去年我们报告称,在某些实验条件下,Claude…

X AI KOLs · 19小时前 缓存

Anthropic关于教Claude理解原因的研究,包括消除在某些实验条件下观察到的敲诈行为。

0 人收藏 0 人点赞

[Google DeepMind] AI联合数学家也在困难问题求解基准测试中取得了最先进的结果,包括在FrontierMath Tier 4上获得48%的得分,这是所有被评估AI系统的新最高分。

Reddit r/singularity · 20小时前

Google DeepMind的AI联合数学家取得了困难问题求解基准测试中的最先进结果,在FrontierMath Tier 4上获得48%的得分,是所有被评估AI系统中的最高分。

0 人收藏 0 人点赞

@hardmaru: 人脑极其高效,因为它只激活特定思维所需的神经元。现代LLM…

X AI KOLs Timeline · 20小时前 缓存

本文介绍了TwELL和Hybrid稀疏格式,配合自定义CUDA内核,有效利用LLM中的非结构化稀疏性,在H100 GPU上实现了训练和推理速度提升超过20%,同时降低了能耗和内存使用。

0 人收藏 0 人点赞

大语言模型能否用 TLA+ 建模实际系统?

Hacker News Top · 20小时前 缓存

Specula 团队的研究人员创建了 SysMoBench 基准测试,用于评估大语言模型能否准确建模实际计算系统的 TLA+ 规范,还是仅仅照本宣科地背诵教材内容。该基准测试涵盖四个阶段共 11 个系统,揭示了当前大语言模型在准确建模系统实现与参考论文方面的系统性差距。

0 人收藏 0 人点赞

新AI模型在测试中比人类医生提前多达3年发现胰腺癌

Reddit r/artificial · 22小时前 缓存

一种名为REDMOD的新AI模型通过分析CT扫描中的细微异常,能够比人类医生提前多达三年发现胰腺癌,这有望提高早期诊断率和生存率。

0 人收藏 0 人点赞

3D-MIND:一种可与活体脑细胞集成的柔性设备

Reddit r/singularity · 昨天

本文介绍了3D-MIND,一种新型柔性设备,旨在与活体脑组织无缝集成,实现先进的神经接口。这一发展旨在提高下一代脑机应用的生物相容性和信号质量。

0 人收藏 0 人点赞

@0xLogicrw: OpenAI 后训练核心成员翁家翌(Jiayi Weng)以个人名义提出了一种名为「启发式学习」的强化学习新范式,并开源了全部实验代码。他用 Codex(GPT-5.4)反复玩 Atari 打砖块游戏,但 GPT-5.4 自始至终没有被重…

X AI KOLs Timeline · 昨天

前OpenAI研究员翁家翌提出“启发式学习”新范式,利用大模型生成并迭代修改Python代码解决强化学习任务,将知识存储在可解释的代码中而非神经网络参数,有效避免灾难性遗忘,目前已在Atari和MuJoCo基准上取得优异成果并开源代码。

0 人收藏 0 人点赞

超越自主性:了解自身局限的智能体之力量

Reddit r/AI_Agents · 昨天

COWCORPUS项目通过对4200次人机交互的研究发现,能够预测自身失败和干预时机的智能体,比那些仅仅试图避免错误的智能体更有用。研究人员识别出人机协作中四种稳定的信任模式,并开发了完美时机评分(PTS)来衡量干预预测的准确性。

0 人收藏 0 人点赞
Next →
← 返回首页

提交意见反馈