大多数关于“智能体 AI”的讨论都感觉太抽象了。这里是我的智能体研究系统的实际样子
摘要
作者分享了他为识别和评估公司内 AI 用例而构建的智能体研究系统的实际分解。该系统使用六个智能体进行发现、评估和上下文提取,强调人在决策环中,而非完全自主。
嘿,我见过很多演示和框架,但真正在用的智能体系统实例并不多。所以我写了一个关于我搭建的智能体系统的分解介绍,希望能听到大家的想法和潜在改进点。该系统能发现公司内部使用 AI 的案例,然后按成果、工具、供应商和行业进行拆解。六个智能体帮助查找和评估用例、提取关键细节、添加上下文,并将其与用户兴趣匹配。当它们遇到瓶颈时,还会(在研究日志中)回传报告。我目前还没有使用什么花哨的编排工具。它们共享一个动态的用例地图(数据库)、研究日志,以及在关键点上由人类做决策(也就是我)。我认为许多有用的智能体系统将从这里开始,不是取代人类判断,而是让它更容易规模化。大家怎么看?[完整阅读请点这里。](https://theapplied.co/reports/how-i-built-an-agentic-research-system) 附:我还列举了几个同样适用该设置的领域,比如竞争对手研究、房地产、供应链等。
相似文章
构建高效的智能体
Anthropic 发布了构建高效 AI 智能体的工程指南,倡导采用简单、可组合的模式以及直接使用 API,而非依赖复杂的框架。文章区分了工作流与自主智能体,并就何时使用每种架构提供了实用建议。
@AiwithYasir:突发:这篇来自斯坦福与哈佛的论文解释了为何大多数“agentic AI”系统在演示中惊艳、落地却翻车
斯坦福与哈佛研究者指出,agentic AI 系统在现实部署中失败,并非因为“不够聪明”,而是某些根本性问题导致演示效果在实际场景中崩溃。
智能体AI系统的治理实践
OpenAI发布了关于智能体AI系统治理的白皮书,提出了自主AI智能体的定义、生命周期责任和基础安全实践。该白皮书讨论了广泛采用智能体AI可能带来的风险和间接影响,同时推出了研究资助项目。
@lftherios:1/ @karpathy 的 autoresearch 是今年最具代表性的智能体范式之一。问题在于……
Andrej Karpathy 的 autoresearch 范式揭示:当下 AI 智能体各自为战做实验,重复劳动、浪费算力,还不断「重新发明」死路。
我为一家中型律所构建了一个多智能体 AI 系统——以下是真正有效(和无效)的做法
作者分享了在律所部署基于 Claude 和 LangGraph 的多智能体 AI 系统时的经验教训,重点介绍了基于置信度评分的任务交接机制的成功应用,以及防止幻觉产生所需的人机协作监管的重要性。