特朗普从‘放任自流’转向‘严格监管’的AI政策

Reddit r/ArtificialInteligence 新闻

摘要

文章讨论了特朗普总统从‘放任自流’的AI政策转向考虑严格监管,包括对高风险前沿AI模型进行部署前的政府审查,理由是网络安全和国家安全问题。

转念一想,特朗普的团队决定他们终究要在AI问题上做主。明天的美国‘合法’AI是否需要共和党的批准?敬请期待。
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/05/08 19:34

# 特朗普从“百无禁忌”转向“严格监管”的AI政策 来源:https://www.theregister.com/ai-and-ml/2026/05/08/trump-jumps-from-anything-goes-to-strict-regulation-ai-policy/5234687 **观点**当唐纳德·特朗普总统重新掌权时,他将自己塑造成拜登在AI问题上的对立面。首先,他撕毁了拜登的行政令14110(https://www.theregister.com/on-prem/2025/01/21/trump-wastes-no-time-quashing-biden-ai-ev-executive-orders/926971),该令要求“安全、可靠且值得信赖”的AI。然后,他用自己“消除美国人工智能领导力障碍”的指令取而代之,命令各机构撤销或放宽被视为创新障碍的规则。 简而言之,美国AI供应商可以随心所欲。那是过去。现在是现在。 虽然特朗普尚未发布新的AI行政令,但我们知道他的团队正在组建一个由科技高管和政府官员组成的AI工作组,以对AI进行监管。具体来说,他们正在考虑要求所有新的“高风险”AI前沿模型在投入使用前必须接受正式的政府审查。 这可真是好戏连台。 我们确实知道的是,国家经济委员会主任凯文·哈塞特曾表示:“我们正在研究是否可能发布一项行政令,以提供一个清晰的路线图,说明这将如何进行,以及未来可能产生漏洞的AI应如何通过一个流程,在证明安全后才能投入现实世界——就像FDA审批新药一样(https://www.foxbusiness.com/video/6394769903112)。” 考虑到现在无视证据的人在监管美国的医疗保健,这并没有让我充满信心。事实上,我们现在知道FDA阻止了发表研究表明COVID-19疫苗和带状疱疹疫苗是安全的研究(https://www.theguardian.com/us-news/2026/may/05/covid-shingles-vaccines-studies-fda)。这些是我们想要在AI问题上发号施令的人吗? 即便如此,特朗普的唯唯诺诺者正在将这一转变描述为对日益升级的网络安全和国家安全风险的回应,而不是更广泛地接受欧盟式的AI监管。是的,他们正在关注Anthropic的Mythos(https://www.theregister.com/security/2026/04/08/anthropic-mythos-model-can-find-and-exploit-0-days/5224393)及其被黑客利用的潜在可能。 与此同时,他们强调希望避免对日常AI应用施加“繁重”的控制。可能加剧网络战、生物威胁或其他战略危险的前沿模型则是另一回事。 这与去年夏天特朗普胡言乱语时发生了很大变化:“我们必须[让那个AI宝宝成长](https://rollcall.com/factbase/trump/transcript/donald-trump-speech-artificial-intelligence-ai-executive-orders-july-23-2025/),让那个宝宝茁壮成长。我们无法阻止它。我们不能用政治来阻止它。我们不能用愚蠢的规则甚至更愚蠢的规则来阻止它。” 现在他似乎认为规则是件好事。布鲁金斯学会技术革新中心高级研究员达雷尔·韦斯特曾表示,特朗普正在回归拜登的政策(https://www.marketwatch.com/story/heres-how-far-the-trump-administrations-startling-turn-on-ai-regulation-might-go-15ce46be)。只是别告诉他;他会发脾气的。 虽然特朗普及其团队仍在考虑究竟如何“统治”——抱歉,是“监管”——AI,但商务部AI标准与创新中心(CAISI)宣布了与Google DeepMind、微软和xAI的新协议。根据这些新政策声明,CAISI将进行部署前评估(https://www.nist.gov/news-events/news/2026/05/caisi-signs-agreements-regarding-frontier-ai-national-security-testing)和针对性研究,以更好地评估前沿AI能力并推进AI安全状态。 CAISI主任克里斯·法尔表示:“独立、严格的测量科学对于理解前沿AI及其国家安全影响至关重要。” 如何做到?由谁来做?会是什么样子?好问题!可惜我们还没有任何答案。 你可能会注意到Anthropic没有被邀请参加这个舒适的闭门政策会议。这很有趣,因为大多数观察者认为正是Mythos这个模型打破了特朗普白宫“想干嘛就干嘛”的AI骆驼背。 这是因为政府与Anthropic之间持续数月的争执仍在酝酿(https://www.theregister.com/on-prem/2026/02/27/trump-orders-feds-to-drop-woke-anthropic-after-ai-spat/4696877)。特朗普的团队曾下令阻止联邦机构使用该公司的工具,而Anthropic现在正在法庭上挑战这一政策。 然而最近,特朗普的语气有所缓和。特朗普告诉CNBC,Anthropic“正在好转”(https://www.cnbc.com/2026/04/21/trump-anthropic-department-defense-deal.html)。如果他不能与伊朗实现和平,也许与Anthropic的和平能让他高兴。另一方面,我们也知道特朗普团队正在考虑禁止公司“干涉”政府对AI模型的使用(https://www.politico.com/news/2026/05/05/white-house-mulls-tight-new-controls-on-advanced-ai-00907468)。听到没有,Anthropic?你得乖乖听话! 与此同时,康奈尔大学机械与航空航天工程助理教授格雷戈里·法尔科指出了显而易见的事实:“联邦政府目前不具备内部技术专长(https://news.cornell.edu/media-relations/tip-sheets/oversight-ai-cannot-simply-mean-political-review-models)、基础设施或日常洞察力,无法独立直接评估这些系统。”专长正是特朗普那班人马在所有问题上严重缺乏的东西。 “与此同时,”法尔科继续说道,“纯粹自愿的自我管理模式是不够的。”毕竟,狐狸是众所周知的鸡窝看守者。 我认为接下来会发生的是:愿意与特朗普合作共赢的AI供应商最终将与一些特朗普的忠诚支持者一道“治理”AI。这将会很难看。监管是必要的,但这些人不是能做好这项工作的人。 如果特朗普的目标之一与其说是让AI更安全,不如说是确保AI给出的答案是他和他的政权希望人们看到的,我也不会感到惊讶。例如,今天当我问各种聊天机器人谁输掉了2020年大选时,它们都同意特朗普输了。有趣的是,当参议院司法委员会向众多特朗普提名的联邦法官候选人提出同样问题时,他们普遍拒绝说他输了(https://demandjustice.org/judicialreport/)。 不管好坏,大多数美国人不关注法律新闻。但他们所做的,是向AI聊天机器人询问答案。考虑到这些机器人可能有多不准确,这是很愚蠢的,但事实就是如此。如果特朗普可以发号施令,我毫不怀疑经批准的机器人将步其顺从的法官的后尘,给出他想要的答案,而不是真相。®

相似文章

前沿AI监管:管理新兴的公共安全风险

OpenAI Blog

OpenAI提议了一个针对可能造成公共安全风险的「前沿AI」模型的监管框架,倡导制定标准流程、注册/报告要求和合规机制,包括部署前风险评估和部署后监测。

美国主要AI实验室现需接受发布前政府安全审查

Reddit r/ArtificialInteligence

美国政府已与所有国内主要AI实验室达成自愿性发布前安全审查协议,这标志着联邦对前沿模型开发的监管迈出重要一步。该政策旨在强大的AI系统公开发布前主动评估国家安全风险。

智能时代的产业政策

OpenAI Blog

OpenAI 发布了一系列以人为本的智能时代政策思路,提出了扩大机会、确保先进 AI 惠及所有人的框架,并附带奖学金计划和华盛顿特区研讨会。