想象一下:你正在浏览社交媒体,看到一张震撼的图片或一段令人震撼的视频。它栩栩如生,细节丰富,让你不禁信以为真。但它究竟是真实记录,还是由顶尖 AI 精心炮制的「杰作」?如果一个 AI 工具告诉你这是「假的」,它能进一步解释理由吗?它能清晰指出图像中不合常理的光影,或是视频里一闪而过的时序破绽吗?
这种「真假难辨」且「知其然不知其所以然」的困境,正是当前 AIGC 时代我们面临的严峻挑战。随着 AI 生成的内容越来越逼真 ,传统的「黑箱式」检测工具已难以满足我们对透明度和可信度的需求 。我们迫切需要能够同时处理图像和视频、并且能给出「诊断报告」的智能检测系统。正因如此,这篇论文提出了「IVY-FAKE:一个统一的可解释性图像与视频 AIGC 检测框架与基准」 ,目标是让 AI 不仅能识别「李逵」与「李鬼」,更能清楚解释:是哪些具体的视觉伪影(空间或时间上的),暴露了内容的「AI 基因」。
该工作由π3 AI Lab, 武汉大学,南京大学,斯坦福大学机构的多位研究人员合作完成。
随着 AI 生成内容(AIGC)技术的飞速发展,无论是图像还是视频,其逼真程度已经到了令人叹为观止的地步。从 DALL-E 、Imagen 到 Stable Diffusion ,再到惊艳全球的Sora、Veo3,这些强大的生成模型在为我们打开无限创意的同时,也带来了对内容真实性和完整性的严峻考验 。虚假信息、内容溯源、公众信任等问题日益凸显 。
当前的 AIGC 检测方法大多像一个「黑箱」,它们能告诉你一张图片或一段视频是真是假,但很少能解释为什么。这种缺乏可解释性的二元分类器,不仅限制了模型的透明度和可信度,也阻碍了它们在实际场景中的有效部署 。想象一下,如果一个模型告诉你某段视频是 AI 生成的,但无法指出具体的伪造痕迹,我们又该如何完全信任它的判断呢?
此外,现有的研究往往将图像和视频检测割裂开来,缺乏一个统一的框架来同时处理这两种模态的内容 。这无疑增加了研究和应用的复杂性。
正是基于这些痛点,研究者们提出了 IVY-FAKE,其核心目标是推动 AIGC 检测向着更统一、更可解释的方向发展。
图 1:IVY-FAKE 框架:通过对时间和空间伪影的深入分析,该框架实现了对 AI 生成内容的可解释性检测
在 IVY-FAKE 出现之前,AIGC 检测领域主要面临以下几个核心挑战:
1. 可解释性缺失:如前所述,大多数模型仅提供 “真” 或 “假” 的标签,无法解释判断依据。
2. 模态不统一:图像检测和视频检测往往是独立的研究分支,缺乏能够同时高效处理两者的统一模型。
3. 基准数据集的局限性:
面对这些挑战,作者们旨在回答以下关键问题:
为了系统性地解决上述问题,研究者们提出了两大核心贡献:大规模可解释性数据集 IVY-FAKE 和统一的检测与解释模型 IVY-XDETECTOR。
1. IVY-FAKE:一个里程碑式的可解释性 AIGC 检测基准
IVY-FAKE 数据集的构建是这项工作的基石。它具有以下几个显著特点:
图 2:所提出的统一且可解释的 IVY-FAKE 数据集。来自不同领域的输入图像或视频与特定提示词一起由多模态大模型(MLLM)处理,模型通过时间和空间分析生成结构化、可解释的标注信息。
与现有数据集相比(见下表,改编自原论文表 1 ),IVY-FAKE 在数据规模、模态覆盖、特别是可解释性标注的平均 Token 长度上均展现出明显优势。
表 1:在二分类与可解释性任务中使用的不同数据集对比。标记长度通过 tiktoken 库中的 GPT-4o 分词器计算
2. IVY-XDETECTOR:统一的 AIGC 检测与解释架构
基于 IVY-FAKE 数据集,研究者们提出了 IVY-XDETECTOR 模型,这是一个专为鲁棒和可解释 AIGC 检测设计的多模态大语言模型 。
视觉编码器 (Visual Encoder):采用 SigLIP 处理输入图像和视频帧。
视觉投影器 (Visual Projector)
大语言模型 (LLM)
动态分辨率处理:对于高分辨率图像,采用分割成多个 384x384 子图再输入编码器的方式,有效输入分辨率最高可达 2304x2304 。
保留时间信息:对于视频输入,不对视频特征进行时间压缩,而是将所有帧的特征拼接后输入 LLM,以保留丰富的时间信息 。
阶段 1:赋予视频理解能力。使用 Ivy-VL-LLaVA(在图文基准上 SOTA,但缺乏视频数据经验)进行初始化 。在约 300 万个视频 - 文本对上进行训练(数据来自 VideoChatFlash, VideoLLaMA3 等),赋予模型基础的视频理解能力 。
阶段 2:AIGC 检测微调。利用 Demamba, FakeClue, WildFake 等数据集编译一个专门用于指令微调的目标数据集 。核心目标是训练 MLLM 进行二元 AIGC判别(“真” 或 “假”)。
阶段 3:指令驱动的检测与可解释性联合优化。将阶段 2 的 AIGC 检测数据与新增的、关注可解释性的指令数据结合起来进行联合训练 。此阶段的指令旨在引导模型生成详细的、分步骤的推理过程 。
图 3:Ivy-Detector 的三阶段训练流程,包括通用视频理解、检测指令微调和可解释性指令微调
通过这种三阶段渐进式训练,IVY-XDETECTOR 能够系统地发展出从辨别细微 AIGC 伪影、做出准确分类到阐明连贯合理解释的全面技能 。
研究者们在多个基准上对 IVY-XDETECTOR 的检测和解释能力进行了广泛评估。
1. 图像内容分类
表 2:在 Genimage 数据集(Zhu 等,2023b)上的对比。不同检测器(行)在识别来自不同生成器(列)的真实与伪造图像时的准确率(%)。最佳结果用加粗标注,次佳结果用下划线标注。
表 3:在 Chameleon 数据集(Yan 等,2025)上的对比。不同检测器(行)在识别真实与伪造图像时的准确率(%)。对于每个训练数据集,第一行表示整体准确率,第二行表示“伪造/真实”类别的准确率。
2. 视频内容分类
表 4:与 GenVideo 的对比。在多对多泛化任务中的 F1 分数(F1)、召回率(R)和平均精度(AP)。其中 「Demamba-XCLIP-FT」简称为 「Demamba」。
3. 图像和视频内容推理(可解释性)
研究者在完整的 IVY-FAKE 数据集上,将 IVY-xDet 与多个顶尖的开源(Qwen2.5-7B, InternVL2.5-8B)和闭源(GPT-4V, Gemini 2.5 Pro)MLLM进行了比较 。评估指标包括 ROUGE-L 和基于 LLM-as-a-judge 的四个维度:完整性、相关性、细节水平和解释质量 。
表 5:模型在图像与视频任务中的性能对比。“自动指标”包括准确率(Acc)、F1 分数、ROUGE-L 和相似度(SIM)评分。“GPT 协助评估”包括四个主观评判标准:全面性、相关性、细节和解释性,以及它们的平均得分。
这些结果表明,IVY-XDETECTOR 不仅在检测精度上达到了 SOTA,其生成自然语言解释的质量也显著优于其他基线模型,能够提供更透明、更易于人类理解的伪影描述 。
这项研究为 AIGC 检测领域带来了几个关键突破:
1. IVY-FAKE 的开创性:首次提出了一个大规模、统一的、跨图像和视频模态的、用于可解释性 AIGC 检测的数据集 。这为后续研究提供了一个坚实的基础。
2. IVY-XDETECTOR 的卓越性能:所提出的统一视觉语言检测器在多个 AIGC 检测和可解释性基准上取得了 SOTA 表现 。
3. 推动可解释性发展:通过引入自然语言解释和结构化的推理过程,该工作有力地推动了 AIGC 检测从 “黑箱” 向 “白箱” 的转变,增强了模型的透明度和可信度。
4. 统一框架的价值:证明了构建统一的图像和视频 AIGC 检测框架是可行的,并且能够取得优异性能。
对行业而言,这项工作意味着未来我们有望部署更可靠、更易于理解的 AIGC 内容审查工具,这对于打击虚假信息、保护数字内容生态具有重要意义。对于研究者而言,IVY-FAKE 数据集和 IVY-XDETECTOR 模型为探索更深层次的可解释性和更鲁棒的检测算法开辟了新的道路。
该研究还详细给出了当前不同大模型多模态内容的错误检测的案例。
图 10:图像示例 1,Ivy-xDetector 成功检测出基线方法遗漏的细微空间异常
图 11:视频示例 1,展示了 Ivy-xDetector 有效捕捉基线模型忽略的时间不一致性
尽管 IVY-FAKE 和 IVY-XDETECTOR 取得了显著进展,但仍有一些值得进一步探索的方向:
1. 模型效率与时序建模:论文中也提到了当前的局限性,例如较高的空间 Token 负载迫使模型在时间维度上进行降采样,这可能影响对微妙时间伪影的检测精度和时间一致性的建模 。未来工作可以探索更高效的空间建模方法,以及更强的时序一致性保持机制。
2. 更细粒度的伪影定位与解释:虽然自然语言解释已经很有价值,但结合更精确的伪影定位(例如,通过热力图或边界框高亮显示可疑区域)可能会提供更直观的反馈。
3. 对抗攻击与鲁棒性:随着 AIGC 技术的发展,生成模型可能会产生更难以检测的伪影。持续评估和提升模型在对抗攻击下的鲁棒性至关重要。
4. 「道高一尺,魔高一丈」的循环:正如论文中「更广泛影响」部分提到的,检测技术的发展也可能被用于训练更强大的、更难被检测的生成模型 。如何在这种博弈中持续保持检测技术的领先,是一个长期的挑战。
5. 多模态融合的深化:目前模型主要还是基于视觉信息,未来可以探索融合文本、音频等多模态信息进行联合检测与解释,以应对更复杂的 AIGC 场景。
总而言之,IVY-FAKE 和 IVY-XDETECTOR 无疑是 AIGC 内容检测与可解释性研究领域的一项重要贡献。它们不仅为我们提供了强大的工具和基准,更为我们指明了未来研究的方向。我们期待看到更多基于此项工作的后续研究,共同推动 AIGC 技术健康、可信地发展。
文章来自于微信公众号“机器之心”。
【开源免费】DeepBI是一款AI原生的数据分析平台。DeepBI充分利用大语言模型的能力来探索、查询、可视化和共享来自任何数据源的数据。用户可以使用DeepBI洞察数据并做出数据驱动的决策。
项目地址:https://github.com/DeepInsight-AI/DeepBI?tab=readme-ov-file
本地安装:https://www.deepbi.com/
【开源免费】airda(Air Data Agent)是面向数据分析的AI智能体,能够理解数据开发和数据分析需求、根据用户需要让数据可视化。
项目地址:https://github.com/hitsz-ids/airda
【免费】ffa.chat是一个完全免费的GPT-4o镜像站点,无需魔法付费,即可无限制使用GPT-4o等多个海外模型产品。
在线使用:https://ffa.chat/
【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。
项目地址:https://github.com/InternLM/xtuner
【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。
项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md
在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0