标签
OpenAI 发布了2026年2月的威胁报告,详细介绍了检测和防止人工智能恶意使用的案例研究,重点说明了威胁行为者如何将AI模型与传统工具结合,并在协调行动中滥用多个平台和模型。
Doppel 推出了由 OpenAI 的 GPT-5 和 o4-mini 模型驱动的 AI 防御系统,能够自主检测和阻止深度伪造和在线冒充攻击,将分析师工作负载减少 80%,响应时间从数小时缩短至数分钟。
OpenAI发布了2025年10月关于破坏AI恶意使用的报告,详细介绍了自2024年2月以来破坏的40多个违反使用政策的网络,包括国家关联威胁、诈骗和影响力操作。
Outtake 是一个由 GPT-4o 和 OpenAI o3 驱动的 AI 网络安全平台,通过部署持续运行的 AI 代理,每分钟扫描数百万个表面来检测和调查威胁,将威胁消除时间从 60 天缩短到几小时,速度提升 100 倍。
OpenAI 概述了在通往 AGI 过程中的全面安全措施,包括由 AI 驱动的网络防御、与 SpecterOps 的持续对抗性红队测试,以及为 Operator 等新兴 AI 代理设计的安全框架。该公司强调主动威胁检测、业界合作,以及安全措施与基础设施和模型的深度集成。
OpenAI 发布了一份年度报告,详细介绍了其在阻止与国家相关的行为体和其他恶意行为体滥用AI工具的努力,包括防止这些工具被用于专制控制、儿童剥削、信息操纵和网络攻击等目的。
OpenAI 披露了对伊朗秘密影响力行动(Storm-2035)的破获,该行动利用 ChatGPT 账户生成针对 2024 年美国大选和其他主题的政治内容,并通过社交媒体和虚假新闻网站进行传播。该行动的受众参与度极低,通过与微软威胁情报团队的合作被识别。
OpenAI 报告破坏了五个试图滥用其 AI 模型进行欺骗性宣传的隐蔽影响力行动,研究结果表明安全设计的模型阻止了威胁行为者生成所需内容。该公司正在发布趋势分析,并与行业、民间社会和政府合作打击 AI 驱动的信息操纵。