高马尔
一个信息发布的网站

CVPR‘25跨模态因果对齐,让机器更懂视觉证据

今天小编(嬴覓晴)要和大家分享的是CVPR‘25跨模态因果对齐,让机器更懂视觉证据,欢迎阅读~

跨模态因果对齐,让机器更懂视觉证据!

来自中山大学、新加坡南洋理工大学等团队提出跨模态因果对齐框架(CRA),通过因果干预和跨模态对齐,显著提升时空定位的准确性与可解释性。

相关论文已被 CVPR 2025 接收,代码已开源

事情是这样的——

近年来随着多模态大模型的发展,视频问答(VideoQA)任务——要求模型根据视频内容回答自然语言问题——性能显著提升

然而,现有模型往往依赖训练数据中的统计偏差(如语言关键词与答案的虚假关联),而非真正的因果视觉证据,导致回答缺乏可解释性。

举个栗子~

例如下图中,当视频中出现 " 婴儿 " 和 " 女性 " 时,模型可能仅因二者高频共现而给出答案,却忽略真实因果事件(如 " 女性抱起婴儿 ")。

也就是说,虽然结果答对了,但过程中模型采纳的是错误的视觉依据。

针对类似情况,为提供可靠的视觉证据支持,视频问答定位(VideoQG)任务应运而生,要求模型同时输出答案及其对应视频片段的时间区间。

但现有方法面临两大挑战:

多模态偏差:视频与语言中的混淆因素(如高频关键词、短时视觉特征)导致模型学习虚假关联;

弱监督限制:标注视频片段成本高昂,现有模型依赖视频问答(VideoQA)的弱监督信号,难以精准定位。

以上就是 CRA 框架诞生的背景。

此外,中山大学 HCP-Lab 团队已将关键的因果模块集成到开源因果框架 CausalVLR 中。

该框架是一个基于 PyTorch 的 python 开源工具包,用于因果关系发现,因果推理,为各种视觉语言推理任务实现最先进的因果学习算法。

三模块驱动因果推理

现有方法常因依赖于训练数据中的统计偏差,导致模型无法准确识别与问题相关的因果视觉场景,进而产生不准确的时空定位结果。

为克服这一问题,CRA 框架通过三个核心模块实现了从噪声抑制、特征对齐到因果关系建模的全流程优化。

该框架在 NextGQA 和 STAR 数据集上的实验结果表明,CRA 能够显著提升模型的时空定位能力和因果推理的准确性,为视频问答定位任务提供了更可靠的技术解决方案。

三个核心模块具体展开如下:

GSG:抑制噪声,聚焦关键帧

第一个,高斯平滑定位模块(GSG)。

GSG 模块通过自适应高斯滤波去噪,精准估计视频片段的时间间隔。

它的核心功能,是基于跨模态注意力估计时间区间,通过自适应高斯滤波去噪,生成鲁棒的视频片段特征。

技术亮点主要有仨:

1、跨模态注意力计算:利用 CLIP 视频特征与 RoBERTa 语言特征的互動,生成初始时间注意力权重;

2、自适应高斯滤波:引入可学习参数的高斯核,抑制时序上的不稳定噪声(如无关背景帧),突出关键事件区網域(下图);

3、动态阈值分割:根据平滑后的注意力分布,动态截取高响应区间,提升定位精度。

消融实验显示,移除高斯滤波(GSG w/o GS)会导致 [email protected] 下降 2.2%(下表),证明其对噪声抑制的关键作用。

GSG 消融实验,其中 SGG w/o GS †表示 GSG 在训练过程中具有高斯平滑,但在推理过程中没有高斯平滑 CMA:弱监督下的双向对齐

第二个,交叉模态对齐模块(CMA)。

CMA 模块利用双向对比学习,增强视频与问答特征的对齐效果。

它的核心功能,是通过双向对比学习,对齐视频片段特征与问答特征,增强跨模态一致性。

技术亮点有二:

双向 InfoNCE 损失:从同一批次中采样正 / 负样本,分别对齐视觉→语言和语言→视觉特征(公式 1-2);

动态难样本挖掘:优先选择语义差异大的负样本,迫使模型关注细粒度因果关联。

移除 CMA 模块后,Acc@GQA 下降 2%,[email protected] 下降 2.2%(下表),凸显其对弱监督训练的重要性。

ECI:切断虚假因果链

第三个,显式因果干预模块(ECI)。

ECI 模块则通过前门和后门干预,消除多模态偏差,提升因果一致性。

它的核心功能,是针对视觉和语言模态分别设计前门干预与后门干预,消除多模态混淆因素。

语言后门干预:解析问答语义结构图(如主谓宾关系),阻断关键词与答案的虚假路径;

视觉前门干预:以视频片段为中介变量,通过特征聚类模拟混杂因子分布,重构因果链(公式 3-4)。

实验结果显示,在 NextGQA 数据集上,去除了 Causal 模块后相对于 CRA 在 Acc@GQA 造成了 1.2% 的性能损失。

实验结果:多维度性能领先

在 NextGQA 数据集中,CRA 以 18.2% 超越 Temp [ CLIP ] (NG+)2.2%,且在使用 FrozenBiLM 大模型时仍保持优势。

此外,[email protected] 达 28.5%,显著优于基于 LLM 伪标注的 TimeCraft(27.8%),证明其无需额外数据的高效性。

在 STAR 数据集中,CRA 分别以 26.8% 与 27.5% 的 Acc@GQA 分数在 Temp [ CLIP ] 和 FrozenBiLM 的 Backbone 下领先 NG+。

通过统计弱监督视频定位的分布情况,研究团队可以观察到 NG+ 局限于小区间的估计,而 CRA 所估计的区间与真实分布情况更符合。

综上,CRA 框架通过跨模态因果对齐,首次在弱监督条件下实现了视频问答定位的高精度与可解释性。

目前,CRA 框架代码已开源。

研究团队表示,CRA 为视频理解提供了新的因果推理范式,或将推动自动驾驶、智能监控等领網域的可信 AI 应用。

论文地址:

https://arxiv.org/abs/2503.07635

CRA-GQA 仓库:

https://github.com/WissingChen/CRA-GQA

因果框架仓库:

https://github.com/HCPLab-SYSU/CausalVLR

—    —

学术投稿请于工作日发邮件到:

[email protected]

标题注明【投稿】,告诉我们:

你是谁,从哪来,投稿内容‍

附上论文 / 项目主页链接,以及联系方式哦

我们会(尽量)及时回复你

一键关注 点亮星标

科技前沿进展每日见

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

关于CVPR‘25跨模态因果对齐,让机器更懂视觉证据就分享完了,您有什么想法可以联系小编(嬴覓晴)。