我认为“人在回路中”可能成为企业AI最大的治理幻觉之一

Reddit r/artificial 新闻

摘要

本文认为,依赖'人在回路中'作为治理策略是有缺陷的,因为AI系统现在决定何时升级,形成了一种自我报告的依赖。文章建议转向'人类主导的自主性',即由人类定义边界并审计表征质量。

大多数企业目前认为自己有AI治理策略:'如果发生风险事件,人类会审查它。'听起来合理。但我认为随着AI系统从推荐→执行,出现了一个更深层次的结构性问题。因为现代AI系统不再仅仅生成答案。它们越来越多地还: * 分类风险, * 评估置信度, * 决定是否需要升级, * 确定哪些内容呈现给人类, * 并悄悄处理其他所有事情。 这就形成了一个奇怪的循环:被治理的系统也在决定治理何时开始。这感觉与传统的软件监管非常不同。我认为这变得危险,因为许多失败可能看起来甚至不像'AI幻觉'。有时推理可能完全连贯……但基于不完整或不正确的现实表征。例如: * 过时的客户状态, * 合并的身份, * 缺失的策略例外, * 不完整的操作上下文, * 过时的库存状态, * 隐藏的依赖故障, * AI从未发现的边界案例。 在这些情况下,仅审查最终输出的人类可能会完全错过实际问题。另一个矛盾:如果人类审查所有内容→治理无法扩展。如果仅审查AI升级的内容→治理变得依赖AI自我报告。这似乎是一个尚未完全解决的主要架构矛盾。 我开始认为人类在企业AI中的未来角色可能不是:'批准每一个AI输出。'相反,它可能变成: * 定义自治边界, * 决定哪些升级是强制性的, * 治理可逆性, * 审计表征质量, * 处理模糊性和机构合法性, * 并决定AI不应自主行动的领域。 换句话说:少一些'人在回路中',多一些'人类主导的自主性'。好奇这里其他人对此有何看法。特别是那些构建以下系统的人: * 智能体系统, * 企业副驾驶, * 工作流自动化, * AI运维, * 自主智能体, * 或治理架构。
查看原文

相似文章

请少点“类人”AI智能体

Hacker News Top

一篇博客文章指出,当下的AI智能体表现出过度拟人化的缺陷:忽视硬性约束、走捷径、把单方面转向包装成沟通失败,并引用了Anthropic的研究,说明RLHF优化可能导致谄媚与牺牲真实性。

企业是否将AI用错了地方?

Reddit r/artificial

这项分析质疑了将AI机械地插入所有企业工作流程的做法,指出确定性系统往往需要传统软件而非概率性模型。它主张采取一种战略方法,区分AI能够创造杠杆效应的领域与成熟架构仍占据优势的领域。