两名内政部官员因AI“幻觉”被停职
摘要
两名南非内政部官员因一份关于公民身份和移民的关键政策文件中被发现含有AI生成的“幻觉”内容而被停职,凸显了政府在未受监管的情况下使用AI所带来的风险。
暂无内容
查看缓存全文
缓存时间: 2026/05/08 08:35
# 两名内政官员因政策文件发现AI“幻觉”被停职 | The Citizen
来源: https://www.citizen.co.za/news/home-affairs-officials-suspended-ai-hallucinations/
## 内政部关于公民身份、移民和难民保护的修订版白皮书中被发现存在 AI 幻觉问题。
内政部(DHA)是最近一个发现其政策文件中使用了人工智能(AI)的政府机构。
该部门于周四宣布,暂停两名与近期经过修订的关键政策文件相关的官员的职务。
其中一名被停职的官员是周四被暂停职务的公民身份和移民部门首席主任,而另一名负责起草该文件的主任将于新一周开始时被停职。
内政部承认了“造成的尴尬”,并表示将利用此次事件来推动其工作流程的现代化。
“未来,该部门还将设计和实施 AI 检查和声明机制,作为其内部审批流程的一部分。”该部门表示。
## 政策审查即将展开
该部门发现的差异与修订后的《关于公民身份、移民和难民保护的白皮书》附件中的参考文献列表有关 (https://www.gov.za/sites/default/files/gcis_document/202404/50530gon4745.pdf)。
这些参考文献被认定为“幻觉”,这一术语用来描述因缺乏可靠数据而导致的错误或不真实的大型语言模型输出。
“似乎这些参考文献是在事后生成并附加到文档中的,因为它们在正文中并未被引用。
“除了实施预防性停职外,该部门还任命了两家独立的律师事务所,分别负责管理纪律程序和审查自 2022 年 11 月 30 日起由该部门编制的所有政策文件。”内政部表示。
选择这一审查日期是因为这是第一款大型语言模型——ChatGPT——向公众发布的时间。
### “适应以保持领先”
此次停职事件发生在通信和数字技术部(DCDT)被迫撤回其自身关于 AI 的政策文件一周之后 (https://www.citizen.co.za/news/ai-hallucination-forces-policy-withdrawal-but-expert-frames-it-as-governance-lesson/)。
与内政部一样,在国家人工智能政策草案中也发现了虚构的来源和引用。
“最合理的解释是,AI 生成的引用未经适当验证就被纳入其中。这种情况本不应发生。”索利·马拉齐(Solly Malatsi)部长表示。
人工智能政策草案即将重新修订,内政部也将撤回其文档所附的参考文献列表。
然而,内政部坚持认为,关于公民身份、移民和难民的修订政策“继续准确反映政府的立场”,并坚持其内容。
“这些措施是通过广泛的跨部门协作和公众咨询过程制定的,并不因独立参考文献列表中存在的明显 AI 幻觉而产生实质性影响。”内政部确认。
该部门接受了 AI 在社会中日益增长的使用,并表示各机构应更加努力地合理利用其带来的好处。
“这是一种变革性但具有破坏性的技术,正在改变私营和公共部门组织的运作方式。我们现在必须适应以跟上步伐。”内政部总结道。
### 支持本地新闻
在 Google 上将 The Citizen 添加为首选来源,并在 Google 新闻上关注我们,以在 Google 新闻和热门故事中查看更多我们值得信赖的报道。
相似文章
AI幻觉可能比人类更“人性”
文章指出,AI幻觉其实映射了人类的认知偏差——确认偏误、过度自信等,它们并非纯粹的技术缺陷,而是像人类一样在知识缺口处“脑补”的结果。
美国主要AI实验室现需接受发布前政府安全审查
美国政府已与所有国内主要AI实验室达成自愿性发布前安全审查协议,这标志着联邦对前沿模型开发的监管迈出重要一步。该政策旨在强大的AI系统公开发布前主动评估国家安全风险。
我曾是人工智能的忠实信徒。现在我认为整个行业正在从内部腐烂。
一位前AI倡导者详细阐述了对大语言模型的幻灭,指出可靠性问题、版本间退化、企业工作流崩溃,以及部署在关键行业的AI系统缺乏问责制。
AI代理的失败方式鲜有人论及。以下是我亲眼所见。
文章强调了AI代理工作流程中实际的系统级失败,例如上下文泄漏和幻觉细节,认为这些通常是基础设施问题而非模型缺陷。
Anthropic 调查 Claude Mythos AI 被未授权访问的指控
Anthropic 正在调查有未经授权者通过第三方供应商接触其受限的网络安全模型 Claude Mythos 的指控,引发对前沿 AI 系统安全性的担忧。