停止构建AI智能体。
摘要
作者认为,大多数要求构建AI智能体的创始人实际上只需要简单的自动化流程,并辅以最少的LLM集成,理由包括生产环境故障、合规障碍,以及更简单工作流带来的更高投资回报率。文章提供了一个实用的决策框架,帮助开发者和创始人优先考虑可靠的自动化,而非复杂且不可预测的智能体。
每周都有创始人预约我的销售电话,想要一个AI智能体。每周我最终都告诉他们当中的大多数人,他们并不需要。
我为医疗健康和金融科技领域的创始人构建自动化流程和AI智能体。迄今已做过四十多个项目。现在的模式如此一致,以至于电话还没开始我就能预知它的走向。
他们来找我,想要魔法。他们看过Loom视频里某人的“自主销售智能体”在睡觉时也能达成交易。读过LinkedIn上关于“AI员工”管理整个运营团队的帖子。他们已经告诉董事会自己在构建这么个东西。
然后我们上了Zoom,不到十五分钟我就在解释他们实际需要的是一个内部自动化流程,中间只调用一次大语言模型。你能实时看到他们的脸垮下来。
这就是目前市场上的情况。交付给真实企业的大多数“AI智能体”都只是在内部自动化流程中嵌入了一个语言模型。这就是整个产品。贴上智能体的标签,大多是因为自动化在Twitter上不会成为热门话题。
而自动化是有效的。它们能真正省钱,带来实实在在的投资回报。但那些花3万美元购买“智能体”的创始人,并不喜欢听到自己本可以用4000美元的自动化搭建就能获得90%的价值。
过去六个月的三个速例。远程医疗创始人。想要“一个能处理一切的自主AI接待员”。电话聊了一小时后,我告诉她需要的是一个能读取接诊表单并将其分派给合适临床医生的工作流。我们六周内交付了。每天为她的临床医生节省四小时。她上个月又付钱给我了。
金融科技客户。想要一个“完全自主的财务副驾”。他们实际需要的是一个脚本,能在ACH差异进入争议队列之前就进行对账调整。一次模型调用,其余全是普通代码。省下了一整个运营岗位。
医疗水疗连锁店。想要“AI营销自动化”。他们实际需要的是一个任务,监控预订系统中的爽约模式,并触发个性化的挽回消息。三步,没有智能体。上季度预订收入增加了14%。
这些都不是智能体,而是自动化。而且每一项都超越了创始人最初要求的智能体,因为智能体可能在第三周就产生愚蠢的幻觉,永远烧毁客户的信任。
**为什么智能体在生产环境中不断失败**
它们被赋予了太多决策。好的自动化流程每一步只有一个决策,每个分支都有明确的规则。而智能体拿到一个目标,被要求自己去想办法。演示时很美妙,凌晨两点在你的客户支持队列里则是灾难。
你竞争对手办公室的团队正悄悄用AI取胜?他们运行的是乏味的自动化。“我们写了一个调用LLM的Python脚本”上不了行业新闻,所以你见不到。过去18个月里涌现的Bolt、Lovable和Cursor那种灵感迸发式的原型,现在大多正在被拆除。我线索池里一半的创始人,花了5万美元构建“下一代AI智能体”,结果token疯狂消耗,无法审计,客户稍有不寻常操作就崩塌。我将其重建成简单的自动化,它们就突然开始赚钱了。
在受监管的SaaS领域,智能体更是双重不幸。HIPAA和SOC 2审查员想要确切知道你的系统每一步做什么,以什么顺序,每次都不变。自动化20分钟就能通过审查,而智能体会让这变成六个月的噩梦。
**如何真正做出决策**
如果你是打算花钱构建智能体的创始人,请先在纸上回答这些问题:
1. 我能把工作流画成清晰的步骤吗?如果能,你需要的是自动化。
2. 工作流是否有超过五个分支,且输入真正不可预测?那么可能需要智能体。
3. 最坏情况下错误答案的代价高吗?如果高,你需要自动化,不是智能体。
4. 合规部门会审查这个吗?如果会,自动化,没商量。
如果你是销售智能体的开发者,未来12个月销售诚实的自动化比追逐智能体叙事更赚钱。市场正在变聪明。第一波浪潮中被烧伤的创始人正在警告后来者。做一个能在六周内交付清晰自动化的人,这个自动化周二能用,周四仍然工作正常。
开发者、创始人,所有一线实践者,什么对你们正真正有效?什么会出问题?好奇想听听真正从业者的声音。
相似文章
构建高效的智能体
Anthropic 发布了构建高效 AI 智能体的工程指南,倡导采用简单、可组合的模式以及直接使用 API,而非依赖复杂的框架。文章区分了工作流与自主智能体,并就何时使用每种架构提供了实用建议。
AI 智能体开始暴露出大多数工作流程原本就已支离破碎的事实
文章认为,AI 智能体揭示了企业工作流程实际上是多么缺乏结构和混乱不堪,暗示成功的自动化更多取决于整洁的系统和完善文档,而非先进的模型。
我最近一直在为企业开发 AI Agent,我认为大多数人高估了自主性,却低估了可靠性。
作者认为,在企业级 AI Agent 开发中,运行的可靠性和稳定性比高度自主性更为关键,倡导受控智能而非完全自主的系统。
大多数 AI Agent 的失败是组织设计失败,而非模型失败
文章认为,生产环境中 AI Agent 的失败往往归因于糟糕的组织设计和模糊的责任边界,而非模型本身的局限性。文章提出了一种成熟度模型,区分了 AI 助手、自动化流程和 AI 员工,以指导任务所有权的确立。
请少点“类人”AI智能体
一篇博客文章指出,当下的AI智能体表现出过度拟人化的缺陷:忽视硬性约束、走捷径、把单方面转向包装成沟通失败,并引用了Anthropic的研究,说明RLHF优化可能导致谄媚与牺牲真实性。