标签
本文指出,大多数所谓的“智能体化”系统实际上只是配备工具的单智能体,并强调了多智能体架构带来的高昂成本和复杂性。文章梳理了三种有效的多智能体模式——编排者-工作者、流水线以及点对点模式,并提供了判断何时采用多智能体而非单智能体的标准。
本文批评了“多智能体编排”这一术语的过度使用,指出许多实现实际上仅仅是单一智能体使用函数调用,而非真正的分布式系统。文章强调了一些经过生产环境验证的实用模式,如顺序流水线和人机协作工作流,作为复杂但低效架构的替代方案。
文章认为,下一场重大AI辩论应聚焦于代表性和机构架构,提出三个层次(感知、核心、驱动)来应对AI系统如何捕获现实、推理及合法行动的问题,而非仅仅模拟智能。
本文主张AI子代理不应自动继承其父代理的全部权限,而是提倡采用明确范围、工具限制和审计跟踪的弱化委托方式,以增强多代理系统的安全性。
作者详细阐述了不让LLM生成最终事实核查判定的决定,转而采用混合架构:LLM负责数据提取,确定性Python层负责评分,并指出了随机不稳定性和可审计性的问题。
这篇文章概述了一个全面的9层AI生产架构,强调了如RAG管道、安全守卫、可观测性和评估等组件,以区分健壮的生产系统与简单的演示。
The article discusses how Addy Osmani argues that the performance difference between AI coding agents like Claude Code, Cursor, and Cline stems from their 'Harness'—the layer of prompts, tools, and constraints around the model—rather than the underlying model itself. It details best practices for harness engineering, including hooks, sandboxing, and context management, to bridge the gap between model capability and actual agent performance.
这篇文章探讨了 Andrej Karpathy 提出的“LLM Wiki”概念,认为这是传统 RAG 的范式转变,主张通过维护一个持久且不断演化的知识基底,可以实现知识的复合式理解,而非无状态的检索。
作者对行业依赖提示词工程和扩展规模来解决基于 Transformer 的大语言模型(LLM)逻辑推理缺陷表示沮丧,认为这些概率模型从根本上缺乏确定性逻辑的架构。
一篇教程博客文章,介绍 LLM 路由——即根据成本、延迟和质量,将用户查询定向到最合适的 LLM 的实践方法。涵盖路由策略、LLM 路由器的结构解析,以及与混合专家模型(Mixture of Experts)的对比。
一份关于九层生产AI架构的详细解析,涵盖RAG管道、代理、提示词、安全、评估和可观测性层。
英伟达AI研究副总裁Sanja Fidler断言Transformer并非AI的终局架构,指出当前模型训练成本过高、对海量数据依赖严重,需要在架构底层寻求新突破,新一代架构变种已开始涌现。
立场论文提出“连续性层”以保留模型随时间学到的内容,引入Decomposed Trace Convergence Memory与ATANT基准,在250篇故事语料上实现100%隔离、96%累积召回,且无需语言模型介入。
# 论文页面 - 人工智能架构演化的普适统计特征 来源:[https://huggingface.co/papers/2604.10571](https://huggingface.co/papers/2604.10571) ## 摘要 研究发现,人工智能架构的演化遵循与生物进化相同的统计规律,包括相似的适应度效应分布和趋同动力学。我们检验了人工智能架构演化是否遵循相同的统计法则。