@mayhewsw 新论文:我知道现在流行把算力规模扩大10倍,让模型一步步思考并使用工具,但……
摘要
作者发布了 Universal NER v2,这是一篇将在 LREC 2026 发表的命名实体识别论文,刻意回避了当代的“规模扩张+工具调用”潮流。
新论文:我知道现在流行把算力规模扩大10倍,让模型一步步思考并使用工具,但我和我的团队仍在发“2003 年就能写出来”的论文。隆重介绍:Universal NER v2,见刊 LREC 2026。
相似文章
信息密度对用户生成内容命名实体识别影响的机制与优化研究
arXiv 预印本指出,信息密度低是 NER 在嘈杂用户生成内容性能崩溃的根本原因,并提出窗口感知优化模块(WOM),在 WNUT2017 上最高提升 F1 4.5%。
GLiNER-Relex:联合命名实体识别与关系提取的统一框架
GLiNER-Relex 是一个用于联合命名实体识别(NER)与关系提取(RE)的统一框架,利用共享的 Transformer 编码器实现零样本能力。该论文展示了模型在标准基准测试中具有竞争力的性能,并将其作为开源 Python 包发布。
2600万参数工具路由器表明:工具调用应与推理分离
文章介绍了由 Cactus-Compute 开发的 2600 万参数模型 Needle,该模型专为单次工具调用设计。文章主张将工具路由从推理中分离出来,作为一种结构化预测任务,以提高代理(agent)的效率并降低延迟。
@HowToAI_: Google 悄悄发布了研究人员所称的“Attention Is All You Need V2”。这标志着 Transformer… 的终结。
Google 研究人员引入了 Nested Learning,这是一种新的架构,通过将模型视为嵌套优化问题来取代 Transformer,解决了灾难性遗忘问题,并实现了 100% 的长上下文记忆稳定性。
@sherryyangML:机器学习工程(MLE)正成为新的智能体前沿。我将分享我们在扩展面向MLE智能体的强化学习方面的成果……
ICLR 2026 的两篇论文展示了小型 RL 训练智能体如何在机器学习工程任务上击败前沿模型,以及 MLE-Smith 如何自动扩展 MLE 工作负载。