突破多模态奖励瓶颈!中科院清华快手联合提出R1-Reward,用强化学习赋予模型长期推理能力

987次阅读
没有评论

突破多模态奖励瓶颈!中科院清华快手联合提出R1-Reward,用强化学习赋予模型长期推理能力

R1-Reward团队 投稿

量子位 | 公众号 QbitAI

多模态奖励模型(MRMs)在提升多模态大语言模型(MLLMs)的表现中起着至关重要的作用:

  • 在训练阶段,它可以提供稳定的reward;
  • 在评估阶段,它可以选择更好的sample结果;
  • 单独使用时,它可以直接作为evaluator;
    ……

而强化学习(RL)在理论上能够对MRM引入长期推理能力,使MRM更加高效。

但如果直接把现有的RL算法(比如Reinforce++)用到训练MRM上,就会出现很多状况,比如,训练过程会很不稳定、甚至可能直接崩掉

突破多模态奖励瓶颈!中科院清华快手联合提出R1-Reward,用强化学习赋予模型长期推理能力

现在,来自中科院自动化所、清华大学、快手和南京大学的研究团队,在探索如何利用强化学习来稳定、有效地提升多模态奖励模型的长时推理能力方面,取得了新进展:

基于多模态强化学习的工作MM-RLHF(ICML 2025),进一步推出了R1-Reward模型。

在现有的多模态奖励模型benchmark的基础上,相比于当前最先进的SOTA模型,实现5%-15%的提升。

且随着inference sampleing的数目增多还能进一步增长!

突破多模态奖励瓶颈!中科院清华快手联合提出R1-Reward,用强化学习赋予模型长期推理能力

主要贡献

突破多模态奖励瓶颈!中科院清华快手联合提出R1-Reward,用强化学习赋予模型长期推理能力

1. 重新定义问题

作者把训练奖励模型这个问题,看成是一个基于规则的强化学习任务。简单说,就是给奖励模型一个问题和两个答案,让它通过学习来判断哪个答案更好,并且能给出合理的分析。

2. 提出新算法StableReinforce

针对现有RL算法的不足,他们提出了一个改进版的算法叫StableReinforce。这个算法主要在几个方面做了优化:

  • 改进了损失函数里的裁剪操作,提出了Pre-Clip,防止数值计算不稳定。
  • 提出了一种更稳健的优势值(advantage)处理方法(叫做优势过滤器Advantage Filter),不容易被极端值带偏。
  • 设计了一个新颖的“一致性奖励”(Consistency Reward):它引入了另一个大模型作为“裁判”,专门检查奖励模型自己的分析过程和它最终给出的答案是不是一致的。如果一致,就给奖励,这样能促使模型做出更符合逻辑的判断。

3. 渐进式的训练策略

  • 他们从各种公开数据集中收集了20万条偏好数据,构建了一个名为R1-Reward-200k的数据集用于训练。
  • 采用了一种“渐进式难度”的训练策略。因为直接用RL训练模型效果不好(冷启动问题),他们先用GPT-4o对这些数据生成了详细的思考过程,作为监督微调(SFT)的数据,让模型先“入门”。同时,他们记录了GPT-4o判断每个样本的难度(需要尝试几次才能判断对)。
  • 在后续的强化学习阶段,专门挑选那些GPT-4o都觉得比较难(需要尝试多次或者干脆判断错误)的样本进行训练,让模型在难题上得到锻炼。

4. 效果显著

  • 实验结果表明,这个R1-Reward模型在几个主流的多模态奖励模型测评基准(如VL Reward-Bench,Multimodal Reward Bench)上表现非常出色,显著超过了之前的最佳模型(SOTA)。比如在一个榜单上提升了8.4%,在另一个榜单上提升了14.3%。
  • 更有趣的是,他们发现通过在推理时多做几次计算(比如采样5次或15次,然后投票选最多的答案),R1-Reward的性能还能进一步大幅提升,这说明RL方法在优化奖励模型方面潜力巨大。
  • 他们还观察到,经过StableReinforce的RL训练后,模型输出的平均长度减少了大约15%,这意味着模型可能变得更有效率了。

现有强化学习方法的局限性

什么是奖励模型

首先得知道,奖励模型(Reward Model)是干嘛的。简单说,它就是用来判断两个模型的回答,哪一个更符合人类喜好。

具体的优化公式大概长这样:

突破多模态奖励瓶颈!中科院清华快手联合提出R1-Reward,用强化学习赋予模型长期推理能力

这里的r(y|x)就是模型打的分数,σ是个sigmoid函数,E表示求期望(平均)。意思就是,模型要尽量让好答案的分比坏答案的分高,差距越大越好,然后通过log和sigmoid函数来计算损失。

PPO和Reinforce++算法简介

PPO(Proximal Policy Optimization)

PPO是一种很常用的强化学习算法,属于策略梯度方法,目标是直接优化模型(策略)来获得最大的累积奖励。它的厉害之处在于——它不像传统的策略梯度方法那样,容易因为步子迈太大而导致训练不稳定。

PPO通过一种特殊的方式来限制每次策略更新的幅度。它的目标函数是这样的:

突破多模态奖励瓶颈!中科院清华快手联合提出R1-Reward,用强化学习赋予模型长期推理能力

这个公式的核心思想在于那个min和clip操作。它确保了就算ratio*A_t(标准的策略梯度目标)很大,也会被clip后的项限制住,防止策略更新过猛导致训练不稳定。

PPO因为实现简单、效果好,所以在很多地方(比如机器人控制、玩游戏)都用得很广。

Reinforce++

Reinforce++是在PPO基础上做了一些优化的版本,目的是让训练更稳定、更高效。主要改进有:

  1. 加了KL散度惩罚:在奖励函数里加入了一项,用来惩罚强化学习模型(RL model)和监督微调模型(SFT model)在每个词(token)上的输出概率分布差异过大。奖励函数变成了类似这样:。这里表示只有在生成结束符时才加上原始的任务奖励,是那个KL惩罚项。
  2. 奖励和优势的归一化:它会对整个批次(batch)的奖励进行归一化、裁剪和缩放,还对优势值A进行归一化:(减去均值,再除以标准差)。

在很多研究中,Reinforce++都比GRPO更稳定、比PPO收敛更快。

PPO/Reinforce++的问题在哪?

虽然PPO和Reinforce++不错,但在实际训练中,尤其是在训练奖励模型的时候,研究者们发现它们有两个核心问题,很容易让模型训练不稳定甚至失败:

突破多模态奖励瓶颈!中科院清华快手联合提出R1-Reward,用强化学习赋予模型长期推理能力
  1. 训练损失导致的不稳定
  2. 计算PPO损失时,需要算那个概率比值ratio。如果新旧策略差别很大,这个ratio可能会变得非常大或非常小。
  3. 在代码实现里(比如用PyTorch),通常是算ratio = torch.exp(log_probs – old_log_probs)。如果log_probs – old_log_probs这个差值很大,exp()运算可能会导致数值溢出,直接让程序崩溃。
  4. 就算没崩溃,如果算出来的ratio很大,并且优势A_t是负的(表示这个动作不好),那么根据PPO的损失公式,这个损失值可能会变得异常大。这么大的损失会让模型的参数更新变得极其不稳定。
  5. 优势归一化导致的不稳定
  6. 奖励模型的训练数据标签通常很简单,比如就两个标签:1和2(1好还是2更好)。模型比较容易学会区分。
  7. 这就导致在训练后期,一个批次(batch)里的数据,模型可能大部分都能预测对。比如一个batch里有255个样本的真实奖励是1,只有1个是0。
  8. 在这种情况下,奖励的方差会非常小。如果这时候还用标准的优势归一化方法(减均值除以标准差),那个奖励为0的样本对应的优势值,在归一化之后可能会变成一个绝对值非常大的数(例子中是-15.96)。
  9. 这么大的优势值同样会干扰模型的更新,导致训练不稳定。

总的来说,就是直接把PPO或者Reinforce++用在奖励模型训练上,会因为损失计算和优势归一化这两个环节内在的问题,在高效率训练或者训练后期特定数据分布下,引发数值不稳定,最终影响模型效果。

StableReinforce提升训练稳定性

1. Pre-CLIP策略

为了减小大比例差异的影响,Pre-CLIP策略会在计算对数概率的指数值之前对比例进行裁剪。通过在应用指数函数前裁剪log-πθ/πθold的比例,可以避免由于比例差异过大而导致的溢出问题,并缓解负优势情况下的大对数差异。裁剪后的公式为:

突破多模态奖励瓶颈!中科院清华快手联合提出R1-Reward,用强化学习赋予模型长期推理能力

其中,突破多模态奖励瓶颈!中科院清华快手联合提出R1-Reward,用强化学习赋予模型长期推理能力

突破多模态奖励瓶颈!中科院清华快手联合提出R1-Reward,用强化学习赋予模型长期推理能力

分别为允许的最小和最大比例限制(上面的伪代码会更清晰一些(algorithm 1))。

2. Advantage Filter策略

为了避免由于优势分布的极端不平衡对训练带来的影响,文章采用了3-sigma规则(即保留标准化优势在[-3, 3]范围内的样本)。公式为:

突破多模态奖励瓶颈!中科院清华快手联合提出R1-Reward,用强化学习赋予模型长期推理能力

标准化后的优势突破多模态奖励瓶颈!中科院清华快手联合提出R1-Reward,用强化学习赋予模型长期推理能力

通过公式

突破多模态奖励瓶颈!中科院清华快手联合提出R1-Reward,用强化学习赋予模型长期推理能力

计算,其中突破多模态奖励瓶颈!中科院清华快手联合提出R1-Reward,用强化学习赋予模型长期推理能力

突破多模态奖励瓶颈!中科院清华快手联合提出R1-Reward,用强化学习赋予模型长期推理能力

分别为优势分布的均值和标准差。

结合了Pre-CLIP和优势过滤器,最终用来优化的目标函数长得有点像常用的PPO算法的目标函数,但有所修改:

突破多模态奖励瓶颈!中科院清华快手联合提出R1-Reward,用强化学习赋予模型长期推理能力

R1-Reward

将MRM转化为强化学习问题

首先使用下面的prompt,将奖励建模问题转化为rule-based的强化学习问题:

突破多模态奖励瓶颈!中科院清华快手联合提出R1-Reward,用强化学习赋予模型长期推理能力

近期follow deepseek-r1工作的方法基本上都是格式奖励+结果奖励,但是在奖励模型训练过程中,这存在着一致性问题:即只用上面两个奖励时,模型有时会“精神分裂”:

分析部分(<analysis>)明明说回答2更好,但最后却输出<answer>1</answer>。因此本文引入了一个额外的“裁判”模型(文中用了Qwen2.5-VL-7B-Instruct)。这个裁判专门负责检查奖励模型自己输出的分析内容,看它是不是真的支持最终给出的那个答案。

  1. 奖励函数设计:文章提出了三种奖励函数
  2. 格式奖励:要求模型的输出符合指定的格式,即‘ ’,鼓励模型在给出最终答案之前先进行推理,以提高内容的质量和可解释性。
  3. 结果奖励:模型最终生成的答案必须与人类专家的偏好一致。
  4. 一致性奖励:确保推理过程与最终答案一致,即模型的最终结果应当直接源自其推理过程,而不是与推理步骤无关的生成内容。
  5. 最终奖励计算:为了解决可能出现的一致性奖励过度偏重的问题,最终的奖励计算公式为:
突破多模态奖励瓶颈!中科院清华快手联合提出R1-Reward,用强化学习赋予模型长期推理能力

这样的设计好在Consistency Reward的加成效果(乘以0.5再加1)只有在Result Reward大于0(也就是答案选对)的时候才能真正起作用。如果答案选错了,Result Reward通常是0或者负数,那么一致性奖励就不会带来正向激励(或者激励很小),从而确保模型首要目标还是把答案选对。格式奖励作为一个基础分被加上去。

“长思考链”的冷启动问题(Long-CoT Cold Start)

多模态大模型(MLLMs)本身并不是为做奖励模型这种“评价比较”任务而设计的,所以直接用强化学习去训练它们,效果通常很差而且不稳定,因此本文先进行了一轮监督微调。

做法:让GPT-4o对R1-Reward-200k数据集里的每一条数据,都按照Table 1里的提示模板,生成标准的“分析过程”和“最终答案”。生成时设置temperature=1(让输出更发散),并且最多尝试3次,直到生成的答案和真实标签一致。

记录难度:同时,他们还记录了GPT-4o需要尝试几次才能生成正确答案,把这个次数作为样本“难度”的指标。

目的:这个SFT阶段就像是给模型“预习”。通过模仿GPT-4o的输出,先让模型学会任务的基本格式和流程,熟悉这个奖励建模任务应该怎么做。

强化学习(RL)训练数据的筛选

  1. 筛选标准:在进行真正的强化学习训练时,并不是用SFT阶段的所有数据。研究人员专门挑选了那些被认为是“更难”的样本。
  2. 具体来源
  3. 在SFT阶段,那些GPT-4o需要尝试2次或3次才能给出正确答案的样本。
  4. 以及那些GPT-4o尝试了3次仍然没能给出正确答案的样本。

研究人员认为,这些样本通常意味着两个回答之间的差别更小,更难判断优劣。用这些“硬骨头”来训练模型进行强化学习,可以更有效地提升模型辨别细微差异的能力。

有趣的实验发现

研究人员通过一系列实验来验证他们提出的R1-Reward模型和StableReinforce算法的效果,得到了一些挺有意思的结果:

R1-Reward效果拔群

在好几个主流的多模态奖励模型排行榜(比如VLReward Bench, Multimodal Reward Bench, MM-RLHF-Reward Bench)上,R1-Reward的表现都非常亮眼,平均准确率显著超过了之前最好的开源模型(比如IXC-2.5-Reward)。

Test-Time Scaling

突破多模态奖励瓶颈!中科院清华快手联合提出R1-Reward,用强化学习赋予模型长期推理能力

他们尝试在评价的时候,让R1-Reward模型对同一个问题输出好几个判断结果(比如输出5次或15次),然后采取少数服从多数(投票)的方式来决定最终哪个答案更好。

结果发现,这种简单的“投票”策略能大幅提升R1-Reward的准确率。比如在MM-RLHF这个比较难的榜单上,投票5次就能把准确率从大约71%提升到85.3%,投票15次更是达到86.47%,远超其他模型。

更有意思的是,他们还试了另一种策略叫“Any Correct”,就是只要模型输出的K次结果里有一次是正确的,就算对。结果发现,当K=15时,这种策略的准确率几乎接近100%!这暗示R1-Reward其实有潜力完美区分所有样本,只是需要更多的数据或更好的训练策略来完全激发出来。

aha Moment

突破多模态奖励瓶颈!中科院清华快手联合提出R1-Reward,用强化学习赋予模型长期推理能力

通过SFT和RL训练,R1-Reward不仅学会了如何评价两个回答,还自主地学习到了一套分析流程:先明确目标、分析图像、尝试解决问题、给出答案,然后基于这个过程去评价两个外部给定的回答。

更有趣的是,模型展示出了类似人类的反思和纠错能力。比如在上图中,模型自己计算时出错了,但在检查图表后,意识到了错误并重新计算得到了正确结果。这说明模型不仅仅是在模仿,还在学习某种程度的自我检查和修正机制。

经过强化学习训练后,模型输出的分析内容的平均长度还减少了约15%,说明模型可能变得更“言简意赅”,推理效率提高了。

结论

本文介绍了R1-Reward,这是一种使用StableReinforce算法训练的多模态奖励模型(MRM)。通过实验,本文证明了强化学习(RL)在奖励建模中的有效应用,显著提升了模型的表现。R1-Reward解决了多个关键问题,包括训练不稳定、优势归一化限制以及推理和结果之间的不一致性。通过引入Pre-Clipping、优势过滤、一致性奖励以及渐进式训练策略,StableReinforce算法有效稳定了训练过程并提升了模型性能。

实验结果表明,R1-Reward在多个多模态奖励模型基准上超越了现有最先进的模型(SOTA),在准确率和数据效率方面取得了显著进展。此外,R1-Reward还展示了优秀的推理时扩展能力,为未来将强化学习融入多模态奖励模型(MRM)的研究奠定了基础。

展望未来,RL在奖励建模中的应用仍有许多值得探索的方向。例如,本文仅测试了简单的多数投票策略用于推理时扩展,未来可能通过更先进的方法进一步提升性能。此外,改进训练策略以进一步增强奖励模型的基础能力,也是一个有意义的开放性问题。

论文链接:
https://arxiv.org/abs/2505.02835
https://github.com/yfzhang114/r1_reward
https://huggingface.co/yifanzhang114/R1-Reward

— 完 —

版权所有,未经授权不得以任何形式转载及使用,违者必究。

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 1
评论(没有评论)

文心AIGC

2025 年 5 月
 1234
567891011
12131415161718
19202122232425
262728293031  
文心AIGC
文心AIGC
人工智能ChatGPT,AIGC指利用人工智能技术来生成内容,其中包括文字、语音、代码、图像、视频、机器人动作等等。被认为是继PGC、UGC之后的新型内容创作方式。AIGC作为元宇宙的新方向,近几年迭代速度呈现指数级爆发,谷歌、Meta、百度等平台型巨头持续布局
文章搜索
热门文章
清库存!DeepSeek突然补全R1技术报告,训练路径首次详细公开

清库存!DeepSeek突然补全R1技术报告,训练路径首次详细公开

清库存!DeepSeek突然补全R1技术报告,训练路径首次详细公开 Jay 2026-01-08 20:18:...
2025最大AI赢家的凡尔赛年度总结,哈萨比斯Jeff Dean联手执笔

2025最大AI赢家的凡尔赛年度总结,哈萨比斯Jeff Dean联手执笔

2025最大AI赢家的凡尔赛年度总结,哈萨比斯Jeff Dean联手执笔 鹭羽 2025-12-24 09:1...
AI Coding新王登场!MiniMax M2.1拿下多语言编程SOTA

AI Coding新王登场!MiniMax M2.1拿下多语言编程SOTA

AI C++oding新王登场!MiniMax M2.1拿下多语言编程SOTA 克雷西 2025-12-24 ...
智能体落地元年,Agent Infra是关键一环|对话腾讯云&Dify

智能体落地元年,Agent Infra是关键一环|对话腾讯云&Dify

智能体落地元年,Agent Infra是关键一环|对话腾讯云&Dify 鹭羽 2025-12-23 1...
最新评论
ufabet ufabet มีเกมให้เลือกเล่นมากมาย: เกมเดิมพันหลากหลาย ครบทุกค่ายดัง
tornado crypto mixer tornado crypto mixer Discover the power of privacy with TornadoCash! Learn how this decentralized mixer ensures your transactions remain confidential.
ดูบอลสด ดูบอลสด Very well presented. Every quote was awesome and thanks for sharing the content. Keep sharing and keep motivating others.
ดูบอลสด ดูบอลสด Pretty! This has been a really wonderful post. Many thanks for providing these details.
ดูบอลสด ดูบอลสด Pretty! This has been a really wonderful post. Many thanks for providing these details.
ดูบอลสด ดูบอลสด Hi there to all, for the reason that I am genuinely keen of reading this website’s post to be updated on a regular basis. It carries pleasant stuff.
Obrazy Sztuka Nowoczesna Obrazy Sztuka Nowoczesna Thank you for this wonderful contribution to the topic. Your ability to explain complex ideas simply is admirable.
ufabet ufabet Hi there to all, for the reason that I am genuinely keen of reading this website’s post to be updated on a regular basis. It carries pleasant stuff.
ufabet ufabet You’re so awesome! I don’t believe I have read a single thing like that before. So great to find someone with some original thoughts on this topic. Really.. thank you for starting this up. This website is something that is needed on the internet, someone with a little originality!
ufabet ufabet Very well presented. Every quote was awesome and thanks for sharing the content. Keep sharing and keep motivating others.
热评文章
易烊千玺的华为绿手机,真的AI了

易烊千玺的华为绿手机,真的AI了

Failed to fetch content Read More 
AI狼人杀大决战!GPT、Qwen、DeepSeek大乱斗,人类高玩汗流浃背

AI狼人杀大决战!GPT、Qwen、DeepSeek大乱斗,人类高玩汗流浃背

AI狼人杀大决战!GPT、Qwen、DeepSeek大乱斗,人类高玩汗流浃背 鹭羽 2025-12-23 14...
长城首个VLA车型发布,魏建军回应「赌上姓氏造车」

长城首个VLA车型发布,魏建军回应「赌上姓氏造车」

长城首个VLA车型发布,魏建军回应「赌上姓氏造车」 贾浩楠 2025-12-23 13:57:25 来源:量子...