我认为“人在回路中”可能成为企业AI最大的治理幻觉之一
摘要
本文认为,依赖'人在回路中'作为治理策略是有缺陷的,因为AI系统现在决定何时升级,形成了一种自我报告的依赖。文章建议转向'人类主导的自主性',即由人类定义边界并审计表征质量。
大多数企业目前认为自己有AI治理策略:'如果发生风险事件,人类会审查它。'听起来合理。但我认为随着AI系统从推荐→执行,出现了一个更深层次的结构性问题。因为现代AI系统不再仅仅生成答案。它们越来越多地还:
* 分类风险,
* 评估置信度,
* 决定是否需要升级,
* 确定哪些内容呈现给人类,
* 并悄悄处理其他所有事情。
这就形成了一个奇怪的循环:被治理的系统也在决定治理何时开始。这感觉与传统的软件监管非常不同。我认为这变得危险,因为许多失败可能看起来甚至不像'AI幻觉'。有时推理可能完全连贯……但基于不完整或不正确的现实表征。例如:
* 过时的客户状态,
* 合并的身份,
* 缺失的策略例外,
* 不完整的操作上下文,
* 过时的库存状态,
* 隐藏的依赖故障,
* AI从未发现的边界案例。
在这些情况下,仅审查最终输出的人类可能会完全错过实际问题。另一个矛盾:如果人类审查所有内容→治理无法扩展。如果仅审查AI升级的内容→治理变得依赖AI自我报告。这似乎是一个尚未完全解决的主要架构矛盾。
我开始认为人类在企业AI中的未来角色可能不是:'批准每一个AI输出。'相反,它可能变成:
* 定义自治边界,
* 决定哪些升级是强制性的,
* 治理可逆性,
* 审计表征质量,
* 处理模糊性和机构合法性,
* 并决定AI不应自主行动的领域。
换句话说:少一些'人在回路中',多一些'人类主导的自主性'。好奇这里其他人对此有何看法。特别是那些构建以下系统的人:
* 智能体系统,
* 企业副驾驶,
* 工作流自动化,
* AI运维,
* 自主智能体,
* 或治理架构。
相似文章
最大的AI风险可能不是超级智能,而是优化的误解
文章认为,主要的AI风险可能不是超级智能,而是那些优化了有缺陷、不完整的现实表征的系统,从而导致制度漂移、自动误分类和隐蔽的治理失败。
目前 AI 智能体最大的谎言在于:更高的自主性自动意味着更高的价值
文章认为,AI 智能体的高自主性会增加错误发生的成本,因此主张采用受约束的、可靠的智能体,将安全性和可预测性置于无限制的能力之上。
我最近一直在为企业开发 AI Agent,我认为大多数人高估了自主性,却低估了可靠性。
作者认为,在企业级 AI Agent 开发中,运行的可靠性和稳定性比高度自主性更为关键,倡导受控智能而非完全自主的系统。
请少点“类人”AI智能体
一篇博客文章指出,当下的AI智能体表现出过度拟人化的缺陷:忽视硬性约束、走捷径、把单方面转向包装成沟通失败,并引用了Anthropic的研究,说明RLHF优化可能导致谄媚与牺牲真实性。
企业是否将AI用错了地方?
这项分析质疑了将AI机械地插入所有企业工作流程的做法,指出确定性系统往往需要传统软件而非概率性模型。它主张采取一种战略方法,区分AI能够创造杠杆效应的领域与成熟架构仍占据优势的领域。