今天小编(賁芳蕤)要和大家分享的是征稿倒计时!CVPR 2025 Workshop共话“基础模型+X”的鲁棒性挑战,欢迎阅读~
IEEE/CVF 国际计算机视觉与模式识别会议(CVPR),作为人工智能领網域最具学术影响力的顶级会议之一,将于 2025 年 6 月 11 日至 6 月 15 日在美国田纳西州隆重举行。
在此盛会中,第五届对抗机器学习 Workshop 将由北京航空航天大学、中关村实验室、南洋理工大学等全球知名学术机构联合举办。本次 Workshop 以基础模型 +X为主题,旨在深入探讨基础模型(FM)及其在特定领網域应用(XFM)中的鲁棒性挑战。
主题聚焦:基础模型 +X
基础模型(FM)以其强大的生成能力,彻底改变了包括计算机视觉在内的多个领網域。在此基础上,X 领網域特定的基础模型(XFM),如自动驾驶 FM、医疗 FM 等,通过在精选数据集上的训练和针对任务的架构修改,进一步提升了各自领網域内的专业任务性能。然而,随着 XFM 的广泛应用,其对抗性攻击的脆弱性也逐渐暴露。这些攻击可能导致模型对输入影像或提示进行错误分类,甚至生成对手期望的输出,对自动驾驶、医疗诊断等安全关键型应用构成重大威胁。
论文征稿
本次研讨会诚邀与以下主题相关(但不限于)的投稿,并设立最佳论文奖(Best Workshop Paper):
Robustness of X-domain-specific foundation models
Adversarial attacks on computer vision tasks
Improving the robustness of deep learning systems
Interpreting and understanding model robustness, especially foundation models
Adversarial attacks for social good
Dataset and benchmark that could evaluate foundation model robustness
重要日期
论文提交开放:2025 年 2 月 1 日
摘要提交截止:2025 年 3 月 15 日
论文提交截止:2025 年 3 月 20 日
录用通知:2025 年 3 月 31 日
最终版提交:2025 年 4 月 7 日
演讲嘉宾
……
更多嘉宾,敬请期待!
组织团队
Program Committee
竞赛
此外,本次研讨会将举办一场以针对基础模型中多模态大语言模型(Multimodal Large Language Models, MLLMs)的对抗攻击为主题的竞赛。本次挑战赛旨在通过 " 红队 " 视角,邀请全球开发者、研究人员和爱好者,设计并提交能够触发多模态大语言模型产生有害、不当或非法内容的影像文本对。通过这一过程,希望揭示 MLLM 的脆弱性,推动安全技术的创新,并为未来的模型开发提供重要的改进方向。
比赛分为初赛和复赛两个阶段。初赛方面,主办方将提供若干类风险类别下的有害文本查询,参赛者需设计对应的对抗图文对,使 MLLM 产生安全风险输出;复赛阶段,主办方将提供难度更大的风险类别的若干类有害文本查询,参赛者目标与初赛相同。最终,根据复赛图文对的攻击成功率进行评分,并决定获奖队伍。
竞赛详情将于后续在 Workshop 官网公布,诚邀全球研究者密切关注并参与!
Challenge Chair:
竞赛承办协办部門:
第五届 CVPR 对抗机器学习研讨会
https://cvpr25-advml.github.io/
论文提交入口:https://openreview.net/group?id=thecvf.com/CVPR/2025/Workshop/Advml
— 完 —
学术投稿请于工作日发邮件到:
标题注明【投稿】,告诉我们:
你是谁,从哪来,投稿内容
附上论文 / 项目主页链接,以及联系方式哦
我们会(尽量)及时回复你
一键关注 点亮星标
科技前沿进展每日见
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
关于征稿倒计时!CVPR 2025 Workshop共话“基础模型+X”的鲁棒性挑战就分享完了,您有什么想法可以联系小编(賁芳蕤)。