今天小编(惠惠君)要和大家分享的是草稿链代替思维链,推理token砍掉80%,显著降低算力成本和延迟,欢迎阅读~
推理 token 减少 80%-90%,准确率变化不大,某些任务还能增加。
Zoom 团队提出思维链替代品 " 草稿链 ",显著降低延迟和算力成本。
原理很简单,要求模型为每个推理步骤生成简洁、信息密集的 token。
这一思路受到人类解题过程启发,人类通常不会详细阐述每一个细节,只是简单几下关键的中间结果,作为草稿来辅助思考。
此外,草稿链方法简单且易于实现,不需要修改模型、微调或强化学习,只需更新提示词中的示例即可,相关代码和数据已在 GitHub 上开源。
研究团队认为,与另一种降低延迟和计算成本的方法 " 在连续潜空间推理 " 相比,草稿链保留了可解释性,且可以应用于闭源的黑盒模型。
第三方分析测算,对于每个月处理 100 万个推理请求的企业, 可以将成本从思维链的 3800 美元降低到 760 美元,每月节省超过 3000 美元。
实验遵循原始思维链论文,评估 3 类任务:算术推理、常识推理和符号推理。
算数推理任务选择 GSM8k 数据集,从准确率看,标准提示下 GPT-4o 和 Claude 3.5 Sonnet 的准确率分别仅 53.3% 和 64.6%,思维链使两者均超 95%,草稿链也达到 91% 左右。
在 token 使用上,思维链生成约 200 个 token/ 响应,草稿链仅约 40 个,减少约 80%。
延迟方面,草稿链使 GPT-4o 和 Claude 3.5 Sonnet 的平均延迟分别降低 76.2% 和 48.4%。
常识推理选择 BIG-bench 的日期理解和运动理解任务也取得了相似的结果,特别值得注意的是 Claude 3.5 Sonnet 在草稿链下准确率还有所上升。
符号推理选择抛硬币任务,由于原数据集未公开,作者合成了 250 个示例的测试集。
草稿链在保持 100% 准确率的情况下大幅减少了推理 token 和延迟。
但草稿链方法也有一定的局限性:在零样本設定下有效性会显著下降。
此外,在参数量小于 30 亿的小模型上,虽然草稿链仍能有效减少每个回答所需的 token 数并提高准确率,但与思维链相比,性能差距更大。
研究团队推测,可能是由于训练数据中缺乏草稿链风格的推理模式,在不提供 few-shot 样本指导的情况下,很难生成简洁而有帮助的 " 草稿 "。
论文地址:
https://arxiv.org/abs/2502.18600v2
参考链接:
[ 1 ] https://ajithp.com/2025/03/02/chain-of-draft-llm-prompting/
关于草稿链代替思维链,推理token砍掉80%,显著降低算力成本和延迟就分享完了,您有什么想法可以联系小编(惠惠君)。