微缺陷暴露宏观伪造:通过局部分布变化检测AI生成图像
摘要
一种局部分布感知的检测框架,通过放大微观尺度上的统计异常来识别AI生成图像,具有更高的准确率,在多个基准测试中优于基线检测器。
查看缓存全文
缓存时间: 2026/05/13 20:14
论文页面 - 微观缺陷揭露宏观伪造:通过局部分布偏移检测AI生成图像
来源:https://huggingface.co/papers/2605.09296
摘要
一种局部分布感知检测框架,放大微观尺度的统计异常,以更高精度识别AI生成图像。
近期生成模型 (https://huggingface.co/papers?q=generative%20models) 能够生成极为逼真的图像,给区分真实与AI生成图像带来了挑战。然而,现有基于预训练特征提取器 (https://huggingface.co/papers?q=pre-trained%20feature%20extractors) 的检测器往往过度依赖全局语义 (https://huggingface.co/papers?q=global%20semantics),限制了对关键微观缺陷 (https://huggingface.co/papers?q=micro-defects) 的敏感性。在这项工作中,我们提出了“微观缺陷揭露宏观伪造” (https://huggingface.co/papers?q=Micro-Defects)(MDMF),一种局部分布感知检测 (https://huggingface.co/papers?q=local%20distribution-aware%20detection) 框架,将微观尺度的统计异常放大为宏观层面的分布差异 (https://huggingface.co/papers?q=distributional%20discrepancies)。为避免局部取证线索被简单聚合稀释,我们引入了一种可学习的补丁取证签名 (https://huggingface.co/papers?q=Patch%20Forensic%20Signature),将语义补丁嵌入投影到紧凑的取证潜在空间 (https://huggingface.co/papers?q=forensic%20latent%20space)。然后,我们使用最大均值差异 (https://huggingface.co/papers?q=Maximum%20Mean%20Discrepancy)(MMD (https://huggingface.co/papers?q=MMD))来量化生成图像与真实图像之间的分布差异 (https://huggingface.co/papers?q=distributional%20discrepancies)。我们的理论分析表明,当生成图像中存在局部取证信号时,补丁级建模 (https://huggingface.co/papers?q=patch-wise%20modeling) 会产生可证明的更大差异,从而实现与真实图像更可靠的分离。大量实验表明,MDMF 在多个基准上始终优于基线检测器,验证了其普适有效性。项目页面:https://zbox1005.github.io/MDMF-project/
查看 arXiv 页面 (https://arxiv.org/abs/2605.09296) 查看 PDF (https://arxiv.org/pdf/2605.09296) 项目页面 (https://zbox1005.github.io/MDMF-project/) GitHub2 (https://github.com/ZBox1005/MDMF) 添加到收藏 (https://huggingface.co/login?next=%2Fpapers%2F2605.09296)
在您的代理中获取此论文:
hf papers read 2605.09296
没有最新 CLI?curl \-LsSf https://hf\.co/cli/install\.sh \| bash
引用此论文的模型0
没有模型链接此论文
请在模型 README.md 中引用 arxiv.org/abs/2605.09296 以从本页链接。
引用此论文的数据集0
没有数据集链接此论文
请在数据集 README.md 中引用 arxiv.org/abs/2605.09296 以从本页链接。
引用此论文的空间0
没有空间链接此论文
请在空间 README.md 中引用 arxiv.org/abs/2605.09296 以从本页链接。
包含此论文的收藏0
没有收藏包含此论文
将此论文添加到一个收藏 (https://huggingface.co/new-collection) 中以从本页链接。
相似文章
Alpha 混合假说:深度伪造检测中的合成捷径
本文提出了 Alpha 混合假说,认为深度伪造检测器主要识别的是图像合成伪影,而非语义异常。文章提出了一种名为 BlenD 的方法,通过仅使用真实图像并与自混合图像进行数据增强,实现了卓越的跨数据集泛化能力。
MELD:用于AI生成文本的多任务均衡学习检测器
本文介绍了MELD,这是一种用于AI生成文本的检测器,它通过使用辅助头进行多任务学习(涵盖生成器家族、攻击类型和源域)来提高鲁棒性。MELD在RAID基准测试中表现出色,并在对抗攻击下保持低误报率。
理解我们在线看到和听到的内容来源
OpenAI宣布推出工具和研究成果,帮助验证内容真实性,包括文本水印、元数据方法和扩展的图像检测,以及与C2PA元数据集成,用于追踪AI生成和编辑的内容。
鲁棒对抗性输入
研究人员展示了对抗性图像,这些图像能够在多个尺度和视角下可靠地欺骗神经网络分类器,这对自动驾驶汽车所使用的多尺度图像捕捉系统的鲁棒性假设提出了挑战。
SynthID Detector — 一个帮助识别AI生成内容的新平台
Google宣布推出SynthID Detector验证平台,该平台可以通过检测Google AI工具生成的媒体中嵌入的肉眼看不见的SynthID水印,来识别跨越图像、音频、视频和文本的AI生成内容。该平台正向早期测试者推出,计划面向记者、媒体专业人士和研究人员提供更广泛的访问权限。