遏制人工智能的恶意使用 | 2026年2月
摘要
OpenAI 发布了2026年2月的威胁报告,详细介绍了检测和防止人工智能恶意使用的案例研究,重点说明了威胁行为者如何将AI模型与传统工具结合,并在协调行动中滥用多个平台和模型。
我们最新的威胁报告审视了恶意行为者如何将AI模型与网站和社交平台结合,以及这对检测和防御意味着什么。
查看缓存全文
缓存时间: 2026/04/20 14:52
# 打击AI的恶意使用
来源:https://openai.com/index/disrupting-malicious-ai-uses/
最新报告,包含我们如何检测和阻止AI恶意使用的案例研究。
自两年前开始发布这些威胁报告以来,我们对威胁行为者企图滥用AI模型的方式有了重要认识。具体而言,本报告中的案例研究(与以往报告一样)说明了威胁行为者通常如何将AI与网站、社交媒体账户等其他传统工具结合使用。威胁活动很少局限于单一平台;正如我们关于某中国影响力操纵者的报告所示,其活动也不总是局限于单一AI模型。相反,威胁行为者可能在其操作流程的不同阶段使用不同的AI模型。我们在威胁报告中分享这些发现,旨在让我们的行业乃至整个社会能够更好地识别和防范此类威胁。
相似文章
破坏AI的恶意使用:2025年10月
OpenAI发布了2025年10月关于破坏AI恶意使用的报告,详细介绍了自2024年2月以来破坏的40多个违反使用政策的网络,包括国家关联威胁、诈骗和影响力操作。
关于破坏欺骗性AI使用的最新进展
OpenAI 发布了一份威胁情报报告,详细说明了在全球范围内破坏20多起欺骗性AI行动的工作,重点关注与国家相关的行为者和影响力运动,考虑到全球选举,这些问题特别令人担忧。
打击AI恶意使用
OpenAI 发布了一份年度报告,详细介绍了其在阻止与国家相关的行为体和其他恶意行为体滥用AI工具的努力,包括防止这些工具被用于专制控制、儿童剥削、信息操纵和网络攻击等目的。
破坏隐蔽影响力行动对AI的欺骗性使用
OpenAI 报告破坏了五个试图滥用其 AI 模型进行欺骗性宣传的隐蔽影响力行动,研究结果表明安全设计的模型阻止了威胁行为者生成所需内容。该公司正在发布趋势分析,并与行业、民间社会和政府合作打击 AI 驱动的信息操纵。
为AI的恶意使用做准备
OpenAI与领先研究机构合作共同撰写了一份综合论文,预测AI可能被恶意使用的方式并提出缓解策略。该研究强调承认AI的双重用途特性、借鉴网络安全实践,以及扩大围绕AI安全风险的利益相关者讨论。