鲁棒分类中的计算限制与双赢结果
摘要
# 鲁棒分类中的计算限制与双赢结果 来源: [https://openai.com/index/computational-limitations-in-robust-classification-and-win-win-results/](https://openai.com/index/computational-limitations-in-robust-classification-and-win-win-results/) ## 摘要 我们延续关于学习鲁棒分类器中统计/计算权衡的研究,跟进 Bubeck, Lee, Price 和 Razenshteyn 的最近工作,他们展示了分类任务的示例,其中 \(a
查看缓存全文
缓存时间: 2026/04/20 14:55
相似文章
用推理时计算换取对抗鲁棒性
OpenAI 提出证据表明,像 o1 这样的推理模型在获得更多推理时计算来进行更深入思考时,对对抗攻击的抵抗力会增强。这项研究表明,增加计算量可以降低多种任务类型(包括数学、事实性和对抗性图像)的攻击成功率,尽管仍存在一些显著的例外。
鲁棒对抗性输入
研究人员展示了对抗性图像,这些图像能够在多个尺度和视角下可靠地欺骗神经网络分类器,这对自动驾驶汽车所使用的多尺度图像捕捉系统的鲁棒性假设提出了挑战。
不同扰动类型之间对抗鲁棒性的迁移
# 不同扰动类型之间对抗鲁棒性的迁移 来源: [https://openai.com/index/transfer-of-adversarial-robustness-between-perturbation-types/](https://openai.com/index/transfer-of-adversarial-robustness-between-perturbation-types/) OpenAI## 摘要 我们研究深度神经网络在不同扰动类型之间的对抗鲁棒性迁移。虽然大多数关于对抗样本的工作专注于L∞L\_∞和L2L\_2有界扰动,但这些并不能捕捉所有t
认知代价:在边缘原生SLM中消融系统1与系统2推理以实现去中心化共识
实证研究表明,在去中心化自治组织(DAO)中作为边缘原生治理防火墙时,小型语言模型凭借系统1直觉可获得100%对抗鲁棒性,但引入系统2推理后却完全崩溃。
最大熵如何使强化学习更加稳健
本文解释了将香农熵纳入强化学习目标函数,如何创造出更稳健的智能体,使其能够应对奖励和动态环境中出现的意外甚至对抗性变化。