关于破坏欺骗性AI使用的最新进展
摘要
OpenAI 发布了一份威胁情报报告,详细说明了在全球范围内破坏20多起欺骗性AI行动的工作,重点关注与国家相关的行为者和影响力运动,考虑到全球选举,这些问题特别令人担忧。
OpenAI 的使命是确保通用人工智能造福全人类。我们致力于识别、预防和破坏任何试图滥用我们模型进行有害活动的行为。
查看缓存全文
缓存时间: 2026/04/20 14:47
# 关于遏制AI欺骗性使用的最新进展
来源:https://openai.com/global-affairs/an-update-on-disrupting-deceptive-uses-of-ai/
OpenAI的使命是确保人工通用智能惠及全人类。我们致力于识别、防止和遏制任何滥用我们模型造成危害的企图。在全球选举频繁的今年,我们深知建立强有力的、多层防御机制来对抗[国家关联的网络行为体](https://openai.com/index/disrupting-malicious-uses-of-ai-by-state-affiliated-threat-actors/)和[隐蔽影响力行动](https://openai.com/index/disrupting-deceptive-uses-of-ai-by-covert-influence-operations/)尤为重要。这些行为体可能会试图利用我们的模型在社交媒体和其他互联网平台上开展欺骗性宣传活动。
自年初以来,我们已经制止了来自世界各地超过20起企图使用我们模型的行动和欺骗性网络。为了理解威胁行为体试图如何使用AI,我们分析了被我们制止的活动,识别了一系列初步趋势,我们认为这些趋势可以为关于AI如何融入更广泛的威胁格局的讨论提供参考。今天,我们发布了OpenAI最新的威胁情报报告,该报告代表了我们截至2024年10月的理解快照。
展望未来,我们将继续在情报、调查、安全、安全性和政策团队之间开展协作,以预期恶意行为体可能如何使用先进模型进行危险活动,并相应地规划执法措施。我们将继续与内部安全和安全团队分享我们的发现,向关键利益相关者传达经验教训,并与行业同行和更广泛的研究社区合作,以保持领先于风险并加强我们的集体安全防御。
相似文章
破坏隐蔽影响力行动对AI的欺骗性使用
OpenAI 报告破坏了五个试图滥用其 AI 模型进行欺骗性宣传的隐蔽影响力行动,研究结果表明安全设计的模型阻止了威胁行为者生成所需内容。该公司正在发布趋势分析,并与行业、民间社会和政府合作打击 AI 驱动的信息操纵。
打击AI恶意使用
OpenAI 发布了一份年度报告,详细介绍了其在阻止与国家相关的行为体和其他恶意行为体滥用AI工具的努力,包括防止这些工具被用于专制控制、儿童剥削、信息操纵和网络攻击等目的。
破坏AI的恶意使用:2025年10月
OpenAI发布了2025年10月关于破坏AI恶意使用的报告,详细介绍了自2024年2月以来破坏的40多个违反使用政策的网络,包括国家关联威胁、诈骗和影响力操作。
遏制人工智能的恶意使用 | 2026年2月
OpenAI 发布了2026年2月的威胁报告,详细介绍了检测和防止人工智能恶意使用的案例研究,重点说明了威胁行为者如何将AI模型与传统工具结合,并在协调行动中滥用多个平台和模型。
打击国家支持的威胁行为者滥用AI
OpenAI和Microsoft破获了五个来自中国、伊朗、朝鲜和俄罗斯的国家支持的威胁行为者,他们滥用AI服务进行钓鱼攻击、代码分析和信息收集。这些行为者已被识别并账户已被停用,研究结果显示GPT-4在恶意网络安全任务中相比现有工具的增量能力有限。