今天小编(惠惠君)要和大家分享的是视觉自回归生成理解编辑大一统!北大团队多模态新突破,训练数据代码全面开源,欢迎阅读~
最近 Google 的 Gemini Flash 和 OpenAI 的 GPT-4o 等先进模型又一次推动了 AI 浪潮。这些模型通过整合文本、影像、音频等多种数据形式,实现了更为自然和高效的生成和互動。
北京大学团队继 VARGPT 实现视觉理解与生成任务统一之后,再度推出了 VARGPT-v1.1 版本。
该版本进一步提升了视觉自回归模型的能力,不仅在在视觉理解方面有所加强,还在影像生成和编辑任务中达到新的性能高度
目前训练、推理和评估代码,数据,模型均已开源。
VARGPT-v1.1 延续了前作的设计理念,采用了创新的 "next-token" 与 "next-scale" 自回归预测机制,同时引入四大关键创新点:
迭代视觉指令微调与强化学习结合的训练策略: 通过交替进行监督微调(SFT)与基于偏好直接优化(DPO)的强化学习,有效提高了模型的影像生成质量。模型逐步提升影像生成分辨率,从 256 × 256 扩展至 512 × 512 像素,影像细节与真实性显著增强。
更大规模的视觉生成训练数据集: VARGPT-v1.1 采用了多达 830 万条视觉生成指令数据,包括真实世界的 LAION-COCO 数据集以及由 Midjourney 与 Flux 模型生成的合成数据。大规模数据的使用显著扩大了模型对不同类型影像生成的泛化能力。
更新语言模型主干至 Qwen2: 引入最新的 Qwen2-7B 语言模型主干,利用其高效的注意力机制与更好的 token 化策略,有效提升了模型的视觉理解能力。
无架构修改的影像编辑能力: VARGPT-v1.1 在不改动模型架构的基础上,通过专门构建的影像编辑数据集,实现了影像编辑功能。这使得模型不仅可以理解和生成影像,还能根据用户指令对影像进行编辑。
1 模型架构
VARGPT-v1.1 遵循 VARGPT 的模型架构设计,以统一视觉理解和生成,其架构如上图所示。由(1)一个大语言模型(Qwen2-7B)、视觉编码器和用于视觉理解的理解投影器;(2)视觉解码器和用于视觉生成的双生成投影器组成。VARGPT-v1.1 在大语言模型主干中采用因果注意力机制,同时在视觉解码器中使用块因果注意力机制。
2 训练策略
VARGPT-v1.1 的训练遵循 VARGPT 的三阶段训练方法,整体训练过程如上图所示。区别于 VARGPT,在第三阶段, VARGPT-v1.1 提出了迭代指令微调和强化学习的方法,以增强统一模型的视觉生成能力。具体来说,第三阶段的迭代训练过程如下图所示:
2.1 视觉指令微调
视觉生成的指令微调旨在通过监督微调赋予 VARGPT-v1.1 视觉生成能力。这个阶段,首先解冻视觉解码器和两个投影器,并冻结其他参数以进行有监督微调,如上图所示。本文采用一种逐步提高影像分辨率的训练方法来训练 VARGPT-v1.1。具体来说,在第一个 SFT 阶段,影像分辨率設定为 256x256,模型训练 40K 步,以赋予其生成影像的初始能力。在第二个 SFT 阶段,影像分辨率設定为 512x512 ,模型训练 30K 步,以进一步增强其高分辨率视觉生成能力。该视觉指令微调阶段的训练数据包括 8.3M 收集和构建的指令对。
2.2 基于人类反馈的强化学习
除了指令微调外,VARGPT-v1.1 提出迭代指令微调与强化学习来训练视觉自回归的大视觉语言模型。VARGPT-v1.1 通过将生成质量的提升表述为一个偏好选择问题 , 并采用直接偏好优化(DPO)来对模型进行训练。这种方法激励模型倾向于生成高质量的影像输出,同时拒绝质量较差的输出。具体来说,VARGPT-v1.1 训练时将倾向于拒绝低质量的影像 , 接受高质量的影像来优化策略模型 :
2.3 视觉编辑的有监督微调
经过有监督微调(SFT)和直接偏好优化(DPO)的多阶段渐进式分辨率迭代后,我们系统地构建了一个包含来自 Style-Booth 的 11325 个样本的指令调优数据集,以使 VARGPT-v1.1 具备视觉编辑能力。该流程通过视觉编码器处理目标影像,同时利用编辑指令作为文本提示,来监督模型对编辑后影像分布的逼近。这种方法实现了:(1)架构保留式适配,无需引入的冗余设计实现编辑能力;(2)通过联合文本 - 影像标记预测实现统一的多模态编辑。在该监督微调期间,所有模型参数均未冻结,以在保持生成多样性的同时最大化编辑保真度。
3 实验与结果
遵循 VARGPT 和其他多模态大语言模型的設定,本文在一系列面向学术任务的基准测试和最新的视觉理解基准测试中,评估了 VARGPT-v1.1 在视觉理解方面的有效性,总共涉及 11 个基准测试:在包括 MMMU、MME、MMBench、SEEDBench 和 POPE (包括不同的設定,随机、流行和对抗)在内的多模态基准上进行零样本多模态评估。总体来说,VARGPT-v1.1 实现了显著的视觉理解性能,在各种统一模型和各类多模态大语言模型的对比上均占优势。
3.1 Zero-shot multi-modal evaluation
对 VARGPT-v1.1 与各种先进的多模态模型进行了全面评估,结果如下表。实验结果表明 VARGPT -v1.1 在所有基准测试中表现出色,在 MMBench 上达到 81.01,在 SEED 上达到 76.08,在 MMMU 上达到 48.56,取得了先进水平的结果。此外,在 LLaVA - Bench 基准测试上的持续性能提升验证了我们的架构选择和训练策略的有效性,确立了 VARGPT-v1.1 作为一个强大且通用的多模态模型的地位。
3.2 Performance comparison on visual question answering tasks
本文在多个视觉问答数据集上评估了 VARGPT - v1.1 的性能,并将其与几种最先进的多模态模型进行了比较。结果见表 3。我们的实验结果表明 VARGPT-v1.1 在所有视觉问答(VQA)基准测试中均取得了卓越的性能,相较于现有模型有显著提升。
3.3 Performance comparison on visual question answering tasks.
为了评估 VARGPT 的视觉生成能力,我们使用广泛采用的 GenEval 基准和 DPG - Bench 基准进行了全面评估,定量结果分别见下表。这些数据集为文本到影像的生成能力提供了严格的评估框架。我们的实验结果表明,VARGPT-v1.1 优于许多专门的影像生成模型,包括基于扩散的架构(如 SDv2.1)和自回归方法(如 LlamaGen)。
3.4 Performance comparison on the DPG-Bench benchmark.
3.5 视觉理解的比较
VARGPT-v1.1 展现了更强的理解和解读视觉内容中幽默元素的能力。
3.6 多模态影像文本生成
VARGPT-v1.1 生成的一些 512 x 512 的样本如下所示。VARGPT-v1.1 支持用户输入文本和影像指令,并同时输出文本和影像的混合模态数据。此外,与现有的统一模型基线相比,我们的方法在准确的文本到影像生成方面取得了显著改进。如下图所示,我们展示了 VARGPT-v1.1 生成的代表性影像输出和对话互動。定性分析表明,VARGPT-v1.1 始终能生成与给定文本指令紧密匹配的高质量影像。
3.7 影像编辑能力
视觉编辑结果可视化如下图所示,本文对视觉编辑能力进行的定性评估表明,VARGPT-v1.1 具备基本的影像操作能力。这种能力仅通过使用视觉编辑指令微调数据进行训练即可获得,无需对架构进行任何修改。此外,这些观察结果证实了统一模型架构在单一框架内实现通用视觉理解、生成和编辑方面具有巨大潜力。
4 结论与展望
VARGPT-v1.1 通过采用为多模态大模型设计的灵活的训练策略使其具有可扩展性,同时为多模态系统架构设计开辟了新的技术途径。尽管 VARGPT-v1.1 取得了重大进展,但团队指出目前版本和商用生成模型之间仍存在差距,此外在影像编辑能力方面也存在局限性。未来,团队将进一步扩展训练数据规模,探索新型 token 化方法,并尝试更多的强化学习策略,进一步推动多模态生成理解统一大模型的发展。
project: https://vargpt1-1.github.io/
code: https://github.com/VARGPT-family/VARGPT-v1.1
arxiv: https://arxiv.org/abs/2504.02949
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
学术投稿请于工作日发邮件到:
ai@qbitai.com
标题注明【投稿】,告诉我们:
你是谁,从哪来,投稿内容
附上论文 / 项目主页链接,以及联系方式哦
我们会(尽量)及时回复你
点亮星标
科技前沿进展每日见
关于视觉自回归生成理解编辑大一统!北大团队多模态新突破,训练数据代码全面开源就分享完了,您有什么想法可以联系小编(惠惠君)。