遏制人工智能的恶意使用 | 2026年2月

OpenAI Blog 新闻

摘要

OpenAI 发布了2026年2月的威胁报告,详细介绍了检测和防止人工智能恶意使用的案例研究,重点说明了威胁行为者如何将AI模型与传统工具结合,并在协调行动中滥用多个平台和模型。

我们最新的威胁报告审视了恶意行为者如何将AI模型与网站和社交平台结合,以及这对检测和防御意味着什么。
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/04/20 14:52

# 打击AI的恶意使用 来源:https://openai.com/index/disrupting-malicious-ai-uses/ 最新报告,包含我们如何检测和阻止AI恶意使用的案例研究。 自两年前开始发布这些威胁报告以来,我们对威胁行为者企图滥用AI模型的方式有了重要认识。具体而言,本报告中的案例研究(与以往报告一样)说明了威胁行为者通常如何将AI与网站、社交媒体账户等其他传统工具结合使用。威胁活动很少局限于单一平台;正如我们关于某中国影响力操纵者的报告所示,其活动也不总是局限于单一AI模型。相反,威胁行为者可能在其操作流程的不同阶段使用不同的AI模型。我们在威胁报告中分享这些发现,旨在让我们的行业乃至整个社会能够更好地识别和防范此类威胁。

相似文章

破坏AI的恶意使用:2025年10月

OpenAI Blog

OpenAI发布了2025年10月关于破坏AI恶意使用的报告,详细介绍了自2024年2月以来破坏的40多个违反使用政策的网络,包括国家关联威胁、诈骗和影响力操作。

关于破坏欺骗性AI使用的最新进展

OpenAI Blog

OpenAI 发布了一份威胁情报报告,详细说明了在全球范围内破坏20多起欺骗性AI行动的工作,重点关注与国家相关的行为者和影响力运动,考虑到全球选举,这些问题特别令人担忧。

打击AI恶意使用

OpenAI Blog

OpenAI 发布了一份年度报告,详细介绍了其在阻止与国家相关的行为体和其他恶意行为体滥用AI工具的努力,包括防止这些工具被用于专制控制、儿童剥削、信息操纵和网络攻击等目的。

破坏隐蔽影响力行动对AI的欺骗性使用

OpenAI Blog

OpenAI 报告破坏了五个试图滥用其 AI 模型进行欺骗性宣传的隐蔽影响力行动,研究结果表明安全设计的模型阻止了威胁行为者生成所需内容。该公司正在发布趋势分析,并与行业、民间社会和政府合作打击 AI 驱动的信息操纵。

为AI的恶意使用做准备

OpenAI Blog

OpenAI与领先研究机构合作共同撰写了一份综合论文,预测AI可能被恶意使用的方式并提出缓解策略。该研究强调承认AI的双重用途特性、借鉴网络安全实践,以及扩大围绕AI安全风险的利益相关者讨论。