打击AI恶意使用

OpenAI Blog 新闻

摘要

OpenAI 发布了一份年度报告,详细介绍了其在阻止与国家相关的行为体和其他恶意行为体滥用AI工具的努力,包括防止这些工具被用于专制控制、儿童剥削、信息操纵和网络攻击等目的。

暂无内容
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/04/20 14:53

# 破坏AI的恶意使用 来源:https://openai.com/global-affairs/disrupting-malicious-uses-of-ai/ 我们的使命是确保通用人工智能造福全人类。我们通过部署创新来推进这一使命,构建帮助人们解决极具挑战性问题的AI工具。 正如我们在1月发布的《经济蓝图》(https://openai.com/global-affairs/openais-economic-blueprint/)中阐述的那样,我们认为确保AI惠及最广泛的人群意味着通过常识性规则部署AI,旨在保护人们免受实际伤害,并建设民主化AI。这包括防止专制政权使用AI工具来积累权力和控制民众,或威胁和强迫其他国家;以及防止儿童剥削、隐蔽影响行动、诈骗、垃圾信息和恶意网络活动等行为。源自OpenAI创新的AI驱动调查能力为保护民主化AI抵御对抗性专制政权的措施提供了宝贵工具。 自OpenAI成为首家发布破坏恶意使用报告(https://openai.com/index/disrupting-malicious-uses-of-ai-by-state-affiliated-threat-actors/)的AI研究机构以来,已经过去一年了。我们发布这些报告是为了支持美国及盟国政府、行业合作伙伴和其他利益相关者为防止对手和其他恶意行为者的滥用所做的更广泛努力。最新报告概述了我们AI驱动工作的一些趋势和特点,以及突出我们已破坏的威胁类型的案例研究。

相似文章

破坏AI的恶意使用:2025年10月

OpenAI Blog

OpenAI发布了2025年10月关于破坏AI恶意使用的报告,详细介绍了自2024年2月以来破坏的40多个违反使用政策的网络,包括国家关联威胁、诈骗和影响力操作。

破坏隐蔽影响力行动对AI的欺骗性使用

OpenAI Blog

OpenAI 报告破坏了五个试图滥用其 AI 模型进行欺骗性宣传的隐蔽影响力行动,研究结果表明安全设计的模型阻止了威胁行为者生成所需内容。该公司正在发布趋势分析,并与行业、民间社会和政府合作打击 AI 驱动的信息操纵。

关于破坏欺骗性AI使用的最新进展

OpenAI Blog

OpenAI 发布了一份威胁情报报告,详细说明了在全球范围内破坏20多起欺骗性AI行动的工作,重点关注与国家相关的行为者和影响力运动,考虑到全球选举,这些问题特别令人担忧。

遏制人工智能的恶意使用 | 2026年2月

OpenAI Blog

OpenAI 发布了2026年2月的威胁报告,详细介绍了检测和防止人工智能恶意使用的案例研究,重点说明了威胁行为者如何将AI模型与传统工具结合,并在协调行动中滥用多个平台和模型。

打击国家支持的威胁行为者滥用AI

OpenAI Blog

OpenAI和Microsoft破获了五个来自中国、伊朗、朝鲜和俄罗斯的国家支持的威胁行为者,他们滥用AI服务进行钓鱼攻击、代码分析和信息收集。这些行为者已被识别并账户已被停用,研究结果显示GPT-4在恶意网络安全任务中相比现有工具的增量能力有限。