高马尔
一个信息发布的网站

砍掉99%采样成本!腾讯AI Lab提出大模型无监督训练新技术

今天小编(繁綺文)要和大家分享的是砍掉99%采样成本!腾讯AI Lab提出大模型无监督训练新技术,欢迎阅读~

只要微调模型生成的前 8-32 个词,就能让大模型推理能力达到和传统监督训练一样的水平?

腾讯 AI Lab 与香港中文大学(深圳)合作开展了一项新研究,提出了这样一种名为无监督前缀微调(UPFT)的方法。

UPFT 大大降低了训练模型的数据生产成本,能够将训练时间缩短约 75%,并将采样成本降低约 99%

团队研究发现,关键的正确推理信号,全都藏在模型的 " 前几步 " 里,将这种现象称为 " 推理前序自一致性 "。

基于这一发现,团队尝试仅微调模型生成的前 8-32 个词,结果其推理能力果真可达到与传统监督训练相当的水平。

UPFT 不仅降低了大模型的训练耗时和采样成本,在减少训练序列长度和内存消耗方面也展示了显著优势,训练序列长度缩减了 82.6-94.7%。

突破大模型训练算力瓶颈

数据生产是训练大模型(LLM)过程中的一大难题,尤其是算力成本的快速攀升给研究和应用带来了巨大挑战。

传统方法在让模型学会推理时,通常采用生成大量候选解,然后从中筛选出正确的推理路径进行训练的方式。

这种策略看似直接,但实际操作中却面临诸多困难。

以数学解题为例,上述方法通常需要为每道题目生成 16 个候选解,再从中筛选出正确的完整推理链。

这种方式对算力的需求极大——每次训练迭代,模型需要进行数十次采样,GPU 算力消耗呈现快速增长的趋势。

单次数据生产可能消耗数百万 token 的算力资源,而当题目难度增加时,所需的采样量和算力开销还会进一步提升。

这种高成本的训练方式,不仅效率较低,也成为技术落地的一大障碍。

在小规模实验中,这种方法尚可勉强支撑,但若面对百万级题库,算力成本的压力将变得难以承受。

研究团队发现,与其让模型进行大量盲目采样,不如将重点放在识别真正重要的正确推理信号上。

这种更有针对性的策略不仅能够提升效率,还能显著降低算力开销。接下来,我们将进一步探讨他们的核心发现和解决方案。

找到 AI 解题的关键信号

在 AI 解决数学问题的过程中,人们或许会认为它具备某种 " 随机应变 " 的能力,但事实果真如此吗?

通过一系列严谨的实验,研究者们揭示了一个令人惊讶的现象:

AI 在解题时,真正决定正确答案的推理信号,可能早已隐藏在其推理路径的 " 前几步 " 之中。

这一现象被研究者称为" 推理前序自一致性 "

具体而言,无论 AI 在后续的推理过程中如何 " 发散思维 ",其推理路径的开端几乎呈现出高度一致的模式。

这一发现不仅揭示了 AI 解题的底层逻辑,也为优化训练策略提供了全新的视角。

以一个典型实验为例,研究者让模型针对某道数学题生成了 8 个不同的解题方案(标记为 A1 至 A8)。

尽管这些方案的最终答案可能千差万别,但令人意外的是,前 32 个词的内容几乎完全相同。

这一现象表明,AI 推理过程中的关键信号似乎集中在推理的起点部分,而后续的 " 发散 " 更多是表象。

让模型针对同一问题,随机生成 8 次解答

为了进一步探明这一现象的本质,研究团队分别使用通用型模型(Llama-3.1-8B-Instruct)和数学专精模型(Qwen2.5-Math-7B-Instruct)进行了实验。

研究者让这两款模型针对一系列数学题目生成了多达 1000 条解题方案,并对这些推理路径进行了详细分析。

实验结果表明,有大量的独立推理路径共享相同的推理前序

并且随着前缀长度的增加,每种推理前序所对应的平均推理路径数量逐渐减少,AI 生成的解题方案开始呈现出 " 分化 " 的趋势

这一发现为 " 推理前序自一致性 " 提供了强有力的证据,也进一步证实了关键推理信号集中在推理起点的假设。

前序长度和推理路径数量的关系

既然不同的推理路径可能共享相同的推理前序,那么一个关键问题随之而来——

究竟需要多长的前序长度,才能有效区分正确与错误的推理路径?

为了回答这一问题,研究团队设计了专门的实验,分别从正确和错误的推理路径中提取样本,并针对这些路径的前序部分进行了大规模采样分析。

实验结果下图所示,研究者发现了一个重要的临界点:

只有当前序长度超过某个临界长度时,正确路径与错误路径之间的差异才开始显现,并能够被有效区分。

这一发现表明,前序长度在推理路径的分化中起着至关重要的作用,而这个临界长度则为后续优化模型推理策略提供了一个重要的参考标准。

正确和错误在开头部分很难区分从贝叶斯视角看问题:覆盖范围与准确性的平衡

为了更深入地理解这一问题,研究团队引入了一种基于贝叶斯框架的科学视角,来重新审视训练过程。

简单来说,贝叶斯框架是一种概率推理的方法,它帮助我们理解模型在面对一个问题时,如何通过不同的推理路径得出正确答案的可能性。

在这一框架下,模型的表现可以被分解为两个关键因素:推理路径的 " 覆盖范围 " 和 " 准确性 "。

覆盖范围指的是模型在面对一个问题时,能够探索到多少种不同的解题思路。

用贝叶斯的语言来说,这相当于模型在生成推理路径时的 " 先验分布 " ——即模型能够覆盖的解题思路越广泛,它找到正确答案的可能性就越高。

准确性指的是在某一条具体的推理路径上,模型最终得出正确答案的可能性。

在贝叶斯框架中,这可以看作是 " 条件概率 " ——即给定某条推理路径,模型得出正确答案的概率越高,这条路径的质量就越好。

传统的 " 拒绝微调 " 策略虽然在保证准确性方面表现不错——因为它只选择了那些最终答案正确的推理路径——但却忽略了覆盖范围的重要性。

换句话说,这种方法过于 " 挑剔 ",只关注了 " 正确答案 ",而没有充分利用那些可能包含宝贵解题思路但最终答案错误的推理路径。

这种 " 只选一个正确答案 " 的做法,实际上限制了模型的学习潜力。

平衡数据准确性和数据覆盖程度

基于上述分析,研究者们提出了一种新方法,试图找到一个平衡点,既能保证答案准确,又能探索更多解题思路

他们发现,解题路径的前半部分(称为 " 前缀 ")往往包含了多种可能的解题思路,而后半部分则更决定最终答案是否正确。

因此,他们提出只训练模型生成前缀部分,既能覆盖更多解题思路,又能减少计算成本。

具体来说,他们让模型生成解题路径的前半部分,并用这些前缀来训练模型,从而在效率和效果之间找到更好的平衡。

研究人员将这种方法命名为无监督前缀微调(Unsupervised Prefix Finetuning, UPFT ) 。

对于每道题目,他们只生成一条推理路径,而不是像传统方法那样生成多达 16 条。

同时,他们对生成的内容进行了优化:对于 10% 的题目,生成完整的解题路径;而对于剩下的 90%,只生成解题路径的前半部分(即前几个关键步骤)。

这种方式既节省了计算资源,又能让模型接触到多样化的解题思路。

1/10 采样成本取得更优性能

为了验证 UPFT 方法的有效性,研究团队测试了以下两种场景:

对于没有标准答案的数据进行无监督采样:每个问题仅采样一个解决方案,不进行过滤。

对于有标准答案的数据进行有监督采样:传统方法每题采样 16 个解决方案,通过正确答案筛选正确解决方案。

在实验設定上,研究团队使用了通用模型(Llama-3.1-8B-Instruct)和数学专用模型(Qwen2.5-Math-7B-Instruct),以及目前十分火热的 R1 类型的长思维链模型(DeepSeek-R1-Distill-Qwen-7B)。

测试选择了多个具有挑战性的推理基准测试,包括 GSM8K(数学推理)、Math500(复杂数学题)、AIME2024(数学竞赛题)和 GPQA(综合科学推理)。

结果,UPFT 在性能和成本上都展现了显著优势,提升性能的同时减少了训练 token 数量。

UPFT 提高无监督上限

结果表明,与传统的监督微调(SFT)相比,UPFT 在多个方面表现出色:

在使用 U-Hard 数据集时,Qwen2.5-Math-7B-Instruct 的 UPFT 准确率达到了 54.5%,而 SFT 仅为 51.3%。

对于 DeepSeek-R1-Distill-Qwen-7B,UPFT 达到了 61.6% 的准确率,而 SFT 为 56.4%。

UPFT 和传统 SFT 方法的无监督对比实验结果

在更具挑战性的任务(例如 AIME2024 和 GPQA)中,UPFT 的表现更为突出

在 AIME2024 上,Qwen2.5-Math-7B-Instruct 的 UPFT 准确率为 26.6%,相比之下,SFT 为 16.7%。对于 DeepSeek-R1,UPFT 达到了 50.0%,而 SFT 为 36.7%。

在 GPQA 科学推理任务中,UPFT 同样表现优异,超越了 SFT。

在效率方面,UPFT 展示出了极大的优势。UPFT 显著减少了训练序列长度,缩减了 82.6-94.7%。

在 U-Hard 上的平均 token 数为 68.2,而 SFT 需要 393.3 个 token,内存消耗大幅降低。在 DeepSeek-R1-Distill 模型上仅用 561 个标记就优于 SFT 的 3440 个标记,显示了其极高的效率。

UPFT 超越有监督 SFT 性能

为了进一步探究 UPFT 的效率极限,研究团队对比了需要进行大量采样的传统方法,即需要标签验证来过滤掉正确解决方案,来突出 UPFT 的效率优势。

结果显示,在 Qwen2.5-Math-7B-Instruct 上,UPFT 和疯狂刷题的 RFT 准确率打平(52.6%),但 UPFT只用 1.2% 的采样 token(0.6M vs 51.7M)。

同时 UPFT 在 DeepSeek-R1-Distill-Qwen-7B 上飙到 58.7%,比 RFT 高 1.5 个点,采样 token 的花费却只需要 RFT 的 1%,训练 token 花费仅为 RFT 的 25%

在基座模型 Llama-3.1-8B-Instruct 上,UPFT 得分 38.3%,跟 V-STaR 并肩。但是在增加了标签过滤后的 UPFT 性能超过 RFT,得分 38.8%,展示出 UPFT 与现有方法的兼容性。

UPFT 在有监督场景下仍然打败了传统 SFT 以及 V-STaR 方法 UPFT 对前缀长度比较鲁棒

为了揭秘前缀长度对模型性能影响,研究团队展开了进一步的实验。

研究者们通过实验发现,不同模型在解题路径前半部分的长度(即 " 前缀 " 长度)对准确性的影响比较鲁棒。

以 Llama-3.1-8B-Instruct 模型为例,当解题路径的前半部分包含 8 个 token 时,模型的准确率逐渐提升至 52.0% 然后逐渐下降, 对于 Qwen2.5-Math-7B-Instruct 模型的表现则有所不同, 其性能在前 32 个 token 处均缓慢提高。

这表明,不同模型对解题路径前半部分的依赖程度存在差异,研究者们据此可以针对不同模型设计更合适的训练策略。

训练的推理前缀长度和对应模型性能

总之,这项研究为大语言模型的高效、低成本训练开辟了新路径。

未来,研究团队计划继续探索 UPFT 的潜力,进一步优化模型训练效率,并探索与现有方法的兼容性。

作者简介

本文的通讯作者为涂兆鹏,腾讯专家研究员,研究方向为深度学习和大模型,在国际顶级期刊和会议上发表学术论文一百余篇,引用超过 9000 次。担任 SCI 期刊 NeuroComputing 副主编,多次担任 ACL、EMNLP、ICLR 等国际顶级会议领網域主席。

第一作者为香港中文大学(深圳)博士生冀轲,腾讯 AI Lab 高级研究员徐嘉豪,梁添,刘秋志

论文地址:

https://arxiv.org/abs/2503.02875

—    —

学术投稿请于工作日发邮件到:

[email protected]

标题注明【投稿】,告诉我们:

你是谁,从哪来,投稿内容‍

附上论文 / 项目主页链接,以及联系方式哦

我们会(尽量)及时回复你

一键关注 点亮星标

科技前沿进展每日见

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

关于砍掉99%采样成本!腾讯AI Lab提出大模型无监督训练新技术就分享完了,您有什么想法可以联系小编(繁綺文)。