Menu
Avatar
The menu of my blog
Quick Stats
Quests
30 Quests
Messages
2 Messages
Playback
5 Playback
Items
6 Items
Skills
2 Skills
Trace
1 Trace
Message

The Sword Art Online Utilities Project

Welcome, traveler. This is a personal blog built in the style of the legendary SAO game interface. Navigate through the menu to explore the journal, skills, and item logs.

© 2020-2026 Nagi-ovo | RSS | Breezing
← Back to Quest Log
从 RL 来,到 RLHF 去
从 RL 来,到 RLHF 去

本文主要基于 Umar Jamil 的课程进行学习和记录。我们的目标是让 LLM 的行为与我们的期望的输出相一致,RLHF 则是最著名的技术之一。

2025年5月8日 50 min read
深度学习RLHFLLM

Human-Crafted

Written directly by the author with no AI-generated sections.

从 RL 来,到 RLHF 去

本文主要基于 Umar Jamil 的课程[1]^{[1]}[1]进行学习和记录。我们的目标是让 LLM 的行为与我们的期望的输出相一致,RLHF 则是最著名的技术之一。其标准流程涉及四个模型(听上去就很占显存,所以很多方法是去掉部分模型),这里只需记得一共需要四个即可:Reward、Actor、Critic 和 Reference Model,我们最后优化得到的模型是这里说的 Actor Model。

LLM to RL

以前对 RL 的认识中,策略是告诉你在当前 State 下把你应该采取的 Action 的概率的东西,那这么说来,语言模型本身就可以看作一个 Policy:接收一个 Prompt (state),输出下一个 token (action) 的概率,采样后得到一个新 state(token 被拼到 prompt 后),即相当于一个有 vocab_size 大小 Action Space 的 Policy,也是一个 RL Agent。

那这么说,还差一个提供 Reward 的东西(传统 RL 中一般是环境内置的奖励函数)

做一个“Q-A-Reward”的数据集可以实现这点,但是人类并不擅长寻找共识,但在比较优劣这点却很擅长。所以我们把方向转为:模型在 High Temperature 下 generate 多个 A,然后请领域专家(可以是人也可以是 AI Model)来选择出 Chosen / Prefer 的答案,标注出一个偏好数据集,用此训练出一个生成数值奖励的 Reward Model。

Reward Model

这个 RM 是用一个预训练 LLM 如 Llama 来实现的。

[!note] 在文本生成任务中,我们取 prompt 输入 Transformer 后产生的 Embedding (Hidden States) 的最后一个 (token 的) Hidden State 送入 Linear 投影到词表中得到 logits,然后用 Softmax 和采样策略来选择 next token。

当我们不想生成文本而是生成数值奖励时,可以投影到词汇表中的 Linear 替换为一个 one output feature (输出一个标量) 的 Linear,用来产生整个文本序列的单一评分值。

Screenshot 2025-04-23 at 21.19.56

Reward Model Loss

[!tip] 训练时,我们要让这个模型为选择的答案生成高奖励,为未被选择的答案生成低奖励

类似 Bradley-Terry 的参数化形式:

$$ Loss = -\log \sigma(r(x, y_w) - r(x, y_l)) $$

ywy_wyw​ 表示 Chosen,yly_lyl​ 反之。因此当模型为 chosen 给出高 reward 时,

r(x,yw)−r(x,yl)>0r(x, y_w) - r(x, y_l)>0r(x,yw​)−r(x,yl​)>0

σ(r(x,yw)−r(x,yl))∈(0.5,1)\sigma(r(x, y_w) - r(x, y_{l))}\in(0.5,1)σ(r(x,yw​)−r(x,yl))​∈(0.5,1)

−log⁡σ(r(x,yw)−r(x,yl))∈(0,1)-\log \sigma(r(x, y_w) - r(x, y_l))\in(0,1)−logσ(r(x,yw​)−r(x,yl​))∈(0,1)

这样损失会低,而模型为选择的答案给出低 reward 时损失会很高

Reward Model Loss 示例 1 Reward Model Loss 示例 2

HuggingFace 中 RewardTrainer 类接收一个 AutoModelForSequenceClassification 输入(即我们上面提到的模型结构)

Screenshot 2025-04-23 at 22.02.29

Actor & Critic Model

Trajectories

如前所述,强化学习(RL)的核心目标是找到一个策略(policy, π\piπ),该策略能指导 agent 的行动,以获得最大可能的期望回报(expected return)。

数学上,我们将其表示为找到最大化目标函数 J(π)J(\pi)J(π) 的最优策略 π∗\pi^*π∗:

π∗=arg⁡max⁡πJ(π)\pi^* = \arg \max_{\pi} J(\pi)π∗=argπmax​J(π)

期望回报 J(π)J(\pi)J(π) 代表了智能体遵循策略 π\piπ 时,在许多可能的生命周期或回合(episodes)中,预期能累积到的平均总回报。

它的计算方法是:考虑所有可能发生的轨迹(trajectory, τ\tauτ),并将每个轨迹的总回报 R(τ)R(\tau)R(τ) 乘以该轨迹在策略 π\piπ 下发生的概率 P(τ∣π)P(\tau|\pi)P(τ∣π) 进行加权平均(或积分)。

J(π)=∫P(τ∣π)R(τ)=Eτ∼π[R(τ)]J(\pi) = \int P(\tau|\pi) R(\tau) = E_{\tau \sim \pi} [R(\tau)]J(π)=∫P(τ∣π)R(τ)=Eτ∼π​[R(τ)]
  • Eτ∼π[⋅]E_{\tau \sim \pi}[\cdot]Eτ∼π​[⋅] 表示当轨迹 τ\tauτ 是根据策略 π\piπ 生成时的期望值(Expected Value)。
  • R(τ)R(\tau)R(τ) 是在单个轨迹 τ\tauτ 上获得的总回报(奖励)。
  • P(τ∣π)P(\tau|\pi)P(τ∣π) 是当智能体使用策略 π\piπ 时,特定轨迹 τ\tauτ 发生的概率。

轨迹 τ\tauτ 就是 agent 经历的一系列状态和动作的序列,从初始状态开始。它是 agent 与环境交互的一种可能的“故事”或“路径”。

τ=(s0,a0,s1,a1,s2,a2,… )\tau = (s_0, a_0, s_1, a_1, s_2, a_2, \dots)τ=(s0​,a0​,s1​,a1​,s2​,a2​,…)
  • sts_tst​:时间步 ttt 的状态(State)。
  • ata_tat​:在时间步 ttt 采取的动作(Action)(通常基于状态 sts_tst​ 和策略 π\piπ)。

我们通常将环境建模为随机的(stochastic)。这意味着在同一个状态 sts_tst​ 下执行相同的动作 ata_tat​,并不总会导致完全相同的下一个状态 st+1s_{t+1}st+1​。其中涉及到随机性。

下一个状态 st+1s_{t+1}st+1​ 是从一个以当前状态 sts_tst​ 和采取的动作 ata_tat​ 为条件的概率分布中抽取的:

st+1∼P(⋅∣st,at)s_{t+1} \sim P(\cdot | s_t, a_t)st+1​∼P(⋅∣st​,at​)

考虑到随机性的状态转移和 Agent 的策略,我们可以计算整个轨迹发生的概率。它由以下各项连乘得到:

  1. Agent 在初始状态 s0s_0s0​ 的概率:p0(s0)p_0(s_0)p0​(s0​)。
  2. 对于轨迹中的每一个时间步 ttt:
    • 环境在给定 sts_tst​ 和 ata_tat​ 的条件下转移到状态 st+1s_{t+1}st+1​ 的概率:P(st+1∣st,at)P(s_{t+1}|s_t, a_t)P(st+1​∣st​,at​)。
    • 智能体根据其策略在状态 sts_tst​ 选择动作 ata_tat​ 的概率:π(at∣st)\pi(a_t|s_t)π(at​∣st​)。
P(τ∣π)=p0(s0)∏t=0T−1P(st+1∣st,at)π(at∣st)P(\tau|\pi) = p_0(s_0) \prod_{t=0}^{T-1} P(s_{t+1}|s_t, a_t) \pi(a_t|s_t)P(τ∣π)=p0​(s0​)t=0∏T−1​P(st+1​∣st​,at​)π(at​∣st​)

(其中 TTT 是轨迹的长度)。

在计算轨迹的总回报 R(τ)R(\tau)R(τ) 时,我们几乎总是使用折扣回报(discounted rewards)。这意味着较早收到的回报比较晚收到的回报更有价值。

为什么?

  • 反映了现实场景(今天到手的一美元比明天画饼的一美元更有价值)。
  • 在持续性任务(没有固定终点的任务)中避免了无限回报的问题。
  • 提供了数学上的便利性。

我们引入一个折扣因子(discount factor)γ\gammaγ,其中 0≤γ<10 \le \gamma < 10≤γ<1。γ\gammaγ 越接近 0,Agent 越“短视”(更关注眼前利益);γ\gammaγ 越接近 1,Agent 越“有远见”(更关注长期回报)。

轨迹的总折扣回报计算如下:

R(τ)=∑t=0∞γtrtR(\tau) = \sum_{t=0}^{\infty} \gamma^t r_tR(τ)=t=0∑∞​γtrt​
  • rtr_trt​ 是在时间步 ttt 收到的即时回报(immediate reward)。
  • γt\gamma^tγt 是应用于时间步 ttt 回报的折扣系数。

那在 LLM 中,轨迹是什么呢?前面提到了,模型是策略,prompt 是状态,next token 是 action,因此自回归生成中的这些 s, a 序列组成了轨迹。

Screenshot 2025-04-24 at 01.32.33

Policy Gradient

我们确定了强化学习的目标:找到一个最优策略 π∗π^∗π∗ 来最大化期望回报 J(π)J(π)J(π)。很好。但我们实际上如何表示并找到这个策略呢?

通常,尤其是在处理复杂问题时,我们不会去搜索所有可能的策略。我们会定义一个参数化策略(parameterized policy),记作 πθπ_θπθ​。你可以把 θθθ 想象成一组“旋钮”或参数——如果我们的策略是一个神经网络,那 θθθ 可能就是网络的权重和偏置。

我们现在的目标就变成了:如何调整这些旋钮 θθθ 来最大化我们的期望回报?

[!note] 在参数为 θθθ 的策略 πθπ_θπθ​ 下,所有可能轨迹的期望回报:

J(πθ)=Eτ∼πθ[R(τ)]J(\pi_{\theta}) = E_{\tau \sim \pi_{\theta}} [R(\tau)]J(πθ​)=Eτ∼πθ​​[R(τ)]

这意味着期望回报依赖于轨迹 τ\tauτ,而轨迹的分布又依赖于我们特定策略 πθ\pi_{\theta}πθ​ 所选择的动作。改变 θ\thetaθ,就改变了策略,改变了轨迹,也就改变了期望回报。

[!note] 我们想通过改变 θ\thetaθ 来最大化 J(πθ)J(\pi_{\theta})J(πθ​)。在深度学习中一般使用梯度下降(gradient descent)来最小化一个损失函数。而在这里,我们想要最大化一个函数JJJ。所以,我们反过来使用梯度上升(gradient ascent)!这就像爬山——想找到最陡峭的上升方向(也就是梯度),然后朝着那个方向迈出一步。

我们的策略 πθ\pi_{\theta}πθ​ 是一个神经网络,我们会迭代地调整其参数 θ\thetaθ 来增加 J(πθ)J(\pi_{\theta})J(πθ​)。这个更新规则看起来会非常熟悉(只是把梯度下降里的减号换成了加号):

θk+1=θk+α∇θJ(πθ)∣θk\theta_{k+1} = \theta_k + \alpha \nabla_{\theta} J(\pi_{\theta})|_{\theta_k}θk+1​=θk​+α∇θ​J(πθ​)∣θk​​
  • θk\theta_kθk​:我们在第 kkk 次迭代时的参数。
  • α\alphaα:学习率(步长大小)。
  • ∇θJ(πθ)∣θk\nabla_{\theta} J(\pi_{\theta})|_{\theta_k}∇θ​J(πθ​)∣θk​​:期望回报 JJJ 相对于参数 θ\thetaθ 的梯度(gradient),在当前参数 θk\theta_kθk​ 处计算。它告诉我们在参数空间中哪个方向能最大程度地增加 JJJ。

Screenshot 2025-04-24 at 13.51.52

[!important] PG 推导 这里一开始会啰嗦一点来把角标重新都介绍一遍,ADHD 友好型推导…

第一步,重申我们要求梯度的对象是期望回报 J(πθ)J(\pi_{\theta})J(πθ​):

$ \nabla{\theta} J(\pi{\theta}) = \nabla{\theta} E{\tau \sim \pi_{\theta}} [R(\tau)] $

这里:

  • J(πθ)J(\pi_{\theta})J(πθ​) 就是期望回报。
  • Eτ∼πθ[⋅]E_{\tau \sim \pi_{\theta}} [\cdot]Eτ∼πθ​​[⋅] 表示期望值,这个期望是针对所有可能的轨迹 (trajectory, τ\tauτ) 来计算的。轨迹 τ\tauτ 是 Agent 与环境交互产生的一系列状态和动作 (s0,a0,s1,a1,… )(s_0, a_0, s_1, a_1, \dots)(s0​,a0​,s1​,a1​,…)。
  • τ∼πθ\tau \sim \pi_{\theta}τ∼πθ​ 表示这些轨迹是根据我们当前的策略 πθ\pi_{\theta}πθ​ 生成的。
  • R(τ)R(\tau)R(τ) 是指一条完整轨迹 τ\tauτ 所获得的总回报(通常是折扣回报)。
  • ∇θ\nabla_{\theta}∇θ​ 是梯度算子,表示我们要对参数 θ\thetaθ 求偏导数。

第二步,我们来展开期望的表达式: 期望值的定义是什么?对于一个随机变量 XXX,它的期望 E[X]E[X]E[X] 可以通过它的概率分布 p(x)p(x)p(x) 来计算:

  • 如果是连续变量:E[X]=∫p(x)xdxE[X] = \int p(x) x dxE[X]=∫p(x)xdx
  • 如果是离散变量:E[X]=∑p(x)xE[X] = \sum p(x) xE[X]=∑p(x)x

在我们的例子里,随机变量是轨迹的回报 R(τ)R(\tau)R(τ),概率分布是轨迹发生的概率 P(τ∣πθ)P(\tau|\pi_{\theta})P(τ∣πθ​)(给定策略 πθ\pi_{\theta}πθ​ 下轨迹 τ\tauτ 发生的概率)。所以,期望可以写成积分(或求和)的形式:

$ E{\tau \sim \pi{\theta}} [R(\tau)] = \int P(\tau|\pi_{\theta}) R(\tau) d\tau $

(这里用积分符号 ∫\int∫ 代表对所有可能的轨迹求和或积分,更通用)。 把这个代入第一步的公式:

$ \nabla{\theta} J(\pi{\theta}) = \nabla{\theta} \int P(\tau|\pi{\theta}) R(\tau) d\tau $


第三步:把梯度算子移到积分号里面

$ \nabla{\theta} \int P(\tau|\pi{\theta}) R(\tau) d\tau = \int \nabla{\theta} [P(\tau|\pi{\theta}) R(\tau)] d\tau $

这里需要一点微积分知识:在满足一定条件下(通常我们假设在强化学习中是满足的),我们可以交换求导和积分的顺序。就像 ddx∑fi(x)=∑ddxfi(x)\frac{d}{dx} \sum f_i(x) = \sum \frac{d}{dx} f_i(x)dxd​∑fi​(x)=∑dxd​fi​(x) 一样。 接着,注意到 R(τ)R(\tau)R(τ) 是一条轨迹确定后的总回报,它本身的值不直接依赖于策略参数 θ\thetaθ。(是策略 πθ\pi_{\theta}πθ​ 影响了哪条轨迹会发生,而不是这条轨迹一旦发生后它的回报值是多少)。所以,梯度 ∇θ\nabla_{\theta}∇θ​ 只需要作用在 P(τ∣πθ)P(\tau|\pi_{\theta})P(τ∣πθ​) 上:

$ = \int [\nabla{\theta} P(\tau|\pi{\theta})] R(\tau) d\tau $

这一步告诉我们,期望回报的变化,是由于参数 θ\thetaθ 改变导致每条轨迹发生的概率 P(τ∣πθ)P(\tau|\pi_{\theta})P(τ∣πθ​) 变化,再乘以该轨迹本身的回报 R(τ)R(\tau)R(τ),然后对所有轨迹累加起来的效果。

第四步:对数导数技巧 (Log-derivative trick) 这是整个推导中最核心、最巧妙的一步!我们需要引入一个恒等式。

  • 高数复习 (链式法则与对数求导): 回忆一下自然对数 log⁡(x)\log(x)log(x) (通常指 ln⁡(x)\ln(x)ln(x)) 的导数是 ddxlog⁡(f(x))=1f(x)df(x)dx=f′(x)f(x)\frac{d}{dx} \log(f(x)) = \frac{1}{f(x)} \frac{d f(x)}{dx} = \frac{f'(x)}{f(x)}dxd​log(f(x))=f(x)1​dxdf(x)​=f(x)f′(x)​。
  • 稍微变形一下,我们就得到:f′(x)=f(x)ddxlog⁡(f(x))f'(x) = f(x) \frac{d}{dx} \log(f(x))f′(x)=f(x)dxd​log(f(x))。 现在,我们把这个技巧应用到梯度上。令 f(x)f(x)f(x) 对应 P(τ∣πθ)P(\tau|\pi_{\theta})P(τ∣πθ​),自变量 xxx 对应参数 θ\thetaθ。那么:

∇θP(τ∣πθ)=P(τ∣πθ)∇θlog⁡P(τ∣πθ)\nabla_{\theta} P(\tau|\pi_{\theta}) = P(\tau|\pi_{\theta}) \nabla_{\theta} \log P(\tau|\pi_{\theta})∇θ​P(τ∣πθ​)=P(τ∣πθ​)∇θ​logP(τ∣πθ​)

把这个结果代入第三步的积分中: ∫[∇θP(τ∣πθ)]R(τ)dτ=∫[P(τ∣πθ)∇θlog⁡P(τ∣πθ)]R(τ)dτ\int [\nabla_{\theta} P(\tau|\pi_{\theta})] R(\tau) d\tau = \int [P(\tau|\pi_{\theta}) \nabla_{\theta} \log P(\tau|\pi_{\theta})] R(\tau) d\tau∫[∇θ​P(τ∣πθ​)]R(τ)dτ=∫[P(τ∣πθ​)∇θ​logP(τ∣πθ​)]R(τ)dτ


第五步:重新变回期望形式 观察第四步的结果:

∫P(τ∣πθ)[∇θlog⁡P(τ∣πθ)R(τ)]dτ\int P(\tau|\pi_{\theta}) [\nabla_{\theta} \log P(\tau|\pi_{\theta}) R(\tau)] d\tau∫P(τ∣πθ​)[∇θ​logP(τ∣πθ​)R(τ)]dτ

这又符合期望的定义了! E[f(τ)]=∫P(τ∣πθ)f(τ)dτE[f(\tau)] = \int P(\tau|\pi_{\theta}) f(\tau) d\tauE[f(τ)]=∫P(τ∣πθ​)f(τ)dτ。 这里, f(τ)f(\tau)f(τ) 就对应方括号里的全部内容 [∇θlog⁡P(τ∣πθ)R(τ)][\nabla_{\theta} \log P(\tau|\pi_{\theta}) R(\tau)][∇θ​logP(τ∣πθ​)R(τ)]。 所以,整个积分可以写回期望的形式:

=Eτ∼πθ[∇θlog⁡P(τ∣πθ)R(τ)]= E_{\tau \sim \pi_{\theta}} [\nabla_{\theta} \log P(\tau|\pi_{\theta}) R(\tau)]=Eτ∼πθ​​[∇θ​logP(τ∣πθ​)R(τ)]

重大意义! 我们成功地把期望的梯度 ∇θE[⋅]\nabla_{\theta} E[\cdot]∇θ​E[⋅] 转换成了某个量(梯度乘以回报)的期望 E[∇(⋅)×R]E[\nabla (\cdot) \times R]E[∇(⋅)×R]。这个形式非常重要,因为它可以通过采样来近似!我们不需要真的去计算所有轨迹的积分了。只需要采样很多轨迹 τ\tauτ,对于每一条轨迹,计算括号里的值 [∇θlog⁡P(τ∣πθ)R(τ)][\nabla_{\theta} \log P(\tau|\pi_{\theta}) R(\tau)][∇θ​logP(τ∣πθ​)R(τ)],然后求平均,就可以得到梯度的近似值!


第六步:展开对数概率的梯度 (Expression for grad-log-prob) 现在,我们需要处理一下期望里面的 ∇θlog⁡P(τ∣πθ)\nabla_{\theta} \log P(\tau|\pi_{\theta})∇θ​logP(τ∣πθ​) 这一项。 回忆一下轨迹 τ=(s0,a0,s1,a1,…,sT,aT)\tau = (s_0, a_0, s_1, a_1, \dots, s_T, a_T)τ=(s0​,a0​,s1​,a1​,…,sT​,aT​) (假设轨迹长度为 T+1 个状态和 T+1 个动作,或者 T 个时间步)。一条轨迹发生的概率是:

P(τ∣πθ)=p0(s0)∏t=0TP(st+1∣st,at)πθ(at∣st)P(\tau|\pi_{\theta}) = p_0(s_0) \prod_{t=0}^{T} P(s_{t+1}|s_t, a_t) \pi_{\theta}(a_t|s_t)P(τ∣πθ​)=p0​(s0​)∏t=0T​P(st+1​∣st​,at​)πθ​(at​∣st​)

  • p0(s0)p_0(s_0)p0​(s0​):初始状态 s0s_0s0​ 的概率。

  • P(st+1∣st,at)P(s_{t+1}|s_t, a_t)P(st+1​∣st​,at​):环境动力学 (Environment Dynamics),在状态 sts_tst​ 执行动作 ata_tat​ 后转移到状态 st+1s_{t+1}st+1​ 的概率。

  • πθ(at∣st)\pi_{\theta}(a_t|s_t)πθ​(at​∣st​):策略,在状态 sts_tst​ 选择动作 ata_tat​ 的概率(这部分依赖于 θ\thetaθ)。

  • 数学复习 (对数性质): log⁡(a×b)=log⁡a+log⁡b\log(a \times b) = \log a + \log blog(a×b)=loga+logb 并且 log⁡(∏ixi)=∑ilog⁡xi\log(\prod_{i} x_i) = \sum_{i} \log x_ilog(∏i​xi​)=∑i​logxi​。 对 P(τ∣πθ)P(\tau|\pi_{\theta})P(τ∣πθ​) 取对数:

log⁡P(τ∣πθ)=log⁡p0(s0)+∑t=0T[log⁡P(st+1∣st,at)+log⁡πθ(at∣st)]\log P(\tau|\pi_{\theta}) = \log p_0(s_0) + \sum_{t=0}^{T} [\log P(s_{t+1}|s_t, a_t) + \log \pi_{\theta}(a_t|s_t)]logP(τ∣πθ​)=logp0​(s0​)+∑t=0T​[logP(st+1​∣st​,at​)+logπθ​(at​∣st​)]

现在对上式关于 θ\thetaθ 求梯度 ∇θ\nabla_{\theta}∇θ​:

  • 数学复习 (梯度性质): 梯度的加法法则 ∇(f+g)=∇f+∇g\nabla(f+g) = \nabla f + \nabla g∇(f+g)=∇f+∇g。梯度 ∇θ\nabla_{\theta}∇θ​ 只对依赖于 θ\thetaθ 的项有作用。

  • ∇θlog⁡P(τ∣πθ)=∇θlog⁡p0(s0)+∑t=0T[∇θlog⁡P(st+1∣st,at)+∇θlog⁡πθ(at∣st)]\nabla_{\theta} \log P(\tau|\pi_{\theta}) = \nabla_{\theta} \log p_0(s_0) + \sum_{t=0}^{T} [\nabla_{\theta} \log P(s_{t+1}|s_t, a_t) + \nabla_{\theta} \log \pi_{\theta}(a_t|s_t)]∇θ​logP(τ∣πθ​)=∇θ​logp0​(s0​)+∑t=0T​[∇θ​logP(st+1​∣st​,at​)+∇θ​logπθ​(at​∣st​)]

  • 关键点:

    • 初始状态概率 log⁡p0(s0)\log p_0(s_0)logp0​(s0​) 通常不依赖于策略参数 θ\thetaθ,所以 ∇θlog⁡p0(s0)=0\nabla_{\theta} \log p_0(s_0) = 0∇θ​logp0​(s0​)=0。
    • 环境动力学 log⁡P(st+1∣st,at)\log P(s_{t+1}|s_t, a_t)logP(st+1​∣st​,at​) 描述的是环境本身的性质,也不依赖于策略参数 θ\thetaθ,所以 ∇θlog⁡P(st+1∣st,at)=0\nabla_{\theta} \log P(s_{t+1}|s_t, a_t) = 0∇θ​logP(st+1​∣st​,at​)=0。
    • 只有策略 log⁡πθ(at∣st)\log \pi_{\theta}(a_t|s_t)logπθ​(at​∣st​) 依赖于 θ\thetaθ。 所以,上式简化为:

∇θlog⁡P(τ∣πθ)=∑t=0T∇θlog⁡πθ(at∣st)\nabla_{\theta} \log P(\tau|\pi_{\theta}) = \sum_{t=0}^{T} \nabla_{\theta} \log \pi_{\theta}(a_t|s_t)∇θ​logP(τ∣πθ​)=∑t=0T​∇θ​logπθ​(at​∣st​)

整条轨迹的对数概率的梯度,等于这条轨迹中每一步动作的对数概率梯度之和!这大大简化了计算。


第七步:最终的策略梯度定理 把第六步简化后的结果代回到第五步的期望公式中:

$\nabla{\theta} J(\pi{\theta}) = E{\tau \sim \pi{\theta}} [(\sum{t=0}^{T} \nabla{\theta} \log \pi_{\theta}(a_t|s_t)) R(\tau)] $

这就是策略梯度定理 (Policy Gradient Theorem) 的最终形式(或者说其中一种常见形式)。 期望回报 J(πθ)J(\pi_{\theta})J(πθ​) 对参数 θ\thetaθ 的梯度,等于“采样一条轨迹 τ\tauτ,计算该轨迹的总回报 R(τ)R(\tau)R(τ),再乘以这条轨迹中所有 (状态,动作) 对对应的策略对数概率梯度 ∇θlog⁡πθ(at∣st)\nabla_{\theta} \log \pi_{\theta}(a_t|s_t)∇θ​logπθ​(at​∣st​) 之和”,然后对所有可能的轨迹求期望(平均)。

显然得到所有轨迹的成本是极高的,例如我们要采样出 max_token_length=100 的所有生成结果,因此我们可以用样本均值来近似期望:

[!note] 蒙特卡洛近似:* 运行当前策略 πθ\pi_{\theta}πθ​,收集 NNN 条轨迹,组成数据集 D={τ1,...,τN}D = \{\tau_1, ..., \tau_N\}D={τ1​,...,τN​} (记 N=∣D∣N = |D|N=∣D∣)。

  • 用这些样本的平均值近似期望值:
  • ∇θJ(πθ)≈g^=1∣D∣∑τ∈D[(∑t=0T∇θlog⁡πθ(at∣st))R(τ)]\nabla_{\theta} J(\pi_{\theta}) \approx \hat{g} = \frac{1}{|D|} \sum_{\tau \in D} [ (\sum_{t=0}^{T} \nabla_{\theta} \log \pi_{\theta}(a_t|s_t)) R(\tau) ]∇θ​J(πθ​)≈g^​=∣D∣1​∑τ∈D​[(∑t=0T​∇θ​logπθ​(at​∣st​))R(τ)]

应用到 LM Policy 上

通过图中所示的生成流程得到这条采样轨迹中每个 state action pair 的对数概率,现在就可以反向传播来计算梯度,

Screenshot 2025-04-24 at 15.17.06

然后将每个梯度乘以从 RM 中 reward 送入表达式来运行梯度上升优化:

Screenshot 2025-04-24 at 15.23.14

High Variance

PG 算法对于小问题效果较好,但是用于语言建模会有一些问题。

[!note] 中心极限定理告诉我们:只要样本够大,样本均值就会呈正态分布,这让我们能更好地预测和分析数据。当样本量较小时,样本均值的波动会很大;即使均值趋向于正态分布,但单次抽样的结果可能差异很大。而我们又知道从 LM 中采样很多轨迹的成本是很高的,这会导致估计量的高方差问题。

如何在不增加样本量的情况下减少方差呢?

  1. 移除历史奖励:reward-to-go 首先必须要承认的是,当前的 action 无法影响到过去已经获得的奖励,而过去的奖励增加了不必要的噪声,这和 RL 中的信用分配问题应该有点关系。因此去掉过去的项可以避免增加噪音,让估计的梯度与真实梯度拉近。所以与其从零开始计算轨迹的奖励,我们可以只考虑从当前时间步开始的动作的奖励

Screenshot 2025-04-24 at 15.48.52

  1. 引入 baseline RL 的研究已证实,引入一个依赖于 state 的项(比如计算轨迹奖励的函数,也可以是一个常数)可以减少方差。这里我们选择 价值函数 Vπ(s)V^\pi(s)Vπ(s) .

Value Function

Vπ(s)V^\pi(s)Vπ(s) 告诉你根据当前策略进行行动,剩余轨迹的期望奖励是多少。

经典 RL 场景和 LM 场景中的价值定义例子:

Screenshot 2025-04-24 at 16.01.05

实际操作中,用的是我们试图优化的那个 LM 做初始化,在其顶部再添加一个线性层来预估 value,这样 Transformer 层的参数可以同时用于语言建模(用将 token 投射到词表的层)和价值估计

Screenshot 2025-04-24 at 16.45.48

前面说的 reward-to-go 在 RL 中被称为 Q 函数,即从当前状态开始采取这个动作,然后得到即时奖励,按照策略完成后续行动的预期奖励:

Screenshot 2025-04-24 at 16.54.58

再通过引入 Value 函数得到 Q 与 V 的差异,这个差异被称为 Advantage 函数

Screenshot 2025-04-24 at 16.56.48

这个 Aπ(st,at)A^\pi(s_{t,}a_t)Aπ(st,​at​) 优势项表示这个特定动作,相对于在状态 sss 中可以采取的平均动作好多少

Screenshot 2025-04-24 at 17.04.33

在图中红箭头指向的状态,向下移动的优势函数将高于其它动作的优势函数

∇θ(J(θ))≈1N∑i=1N(∑t=0T∇θlog⁡πθ(ai,t∣si,t))Aπ(si,t,ai,t)\nabla_{\theta}(J(\theta)) \approx \frac{1}{N}\sum_{i=1}^{N}\left(\sum_{t=0}^{T} \nabla_{\theta} \log \pi_{\theta}(a_{i,t} | s_{i,t})\right) A^{\pi}(s_{i,t}, a_{i,t})∇θ​(J(θ))≈N1​∑i=1N​(∑t=0T​∇θ​logπθ​(ai,t​∣si,t​))Aπ(si,t​,ai,t​)

梯度乘上优势函数后,效果就变为了让策略增加具有高优势 action 的 logprob,并降低带来低平均回报 action 的 log prob。

A^π(st,at)=Qπ(st,at)−Vπ(st)=[r(st,at)+γVπ(st+1)]−Vπ(st)\begin{align} \hat{A}^\pi(s_t, a_t) &= Q^\pi(s_t, a_t) - V^\pi(s_t) \\ &= [r(s_t, a_t) + \gamma V^\pi(s_{t+1})] - V^\pi(s_t) \end{align}A^π(st​,at​)​=Qπ(st​,at​)−Vπ(st​)=[r(st​,at​)+γVπ(st+1​)]−Vπ(st​)​​

[!note] 在传统的强化学习方法中,Q 网络 和 V 网络 通常是独立的。也就是说,Q 函数用于估计在状态 sss 下执行动作 aaa 所期望的总回报,而 V 函数 只是估计状态 sss 的值。这样需要两个不同的神经网络来分别计算这两个值。

然而,现在我们引入了优势函数 Aθ(s,a)A_{\theta}(s, a)Aθ​(s,a),其计算方式是基于 Q 值和 V 值之间的差异,即:

Aθ(s,a)=Qθ(s,a)−Vθ(s)A_{\theta}(s, a) = Q_{\theta}(s, a) - V_{\theta}(s)Aθ​(s,a)=Qθ​(s,a)−Vθ​(s)

通过将 Aθ(s,a)A_{\theta}(s, a)Aθ​(s,a) 表达为 Qθ(s,a)Q_{\theta}(s, a)Qθ​(s,a) 和 Vθ(s)V_{\theta}(s)Vθ​(s) 之间的差异,我们发现,我们只需要训练一个网络来输出 Vθ(s)V_{\theta}(s)Vθ​(s),再通过奖励 rtr_trt​ 和折扣因子 γ\gammaγ 计算出 Q 值。

因此,只有一个神经网络是需要的,这个网络主要预测 Vθ(s)V_{\theta}(s)Vθ​(s)。Q 值通过以下公式计算得出:

Qθ(st,a)=rt+γ⋅Vθ(st+1)Q_{\theta}(s_t, a) = r_t + \gamma \cdot V_{\theta}(s_{t+1})Qθ​(st​,a)=rt​+γ⋅Vθ​(st+1​)

优势函数则进一步计算为:

Aθ(st,a)=rt+γ⋅Vθ(st+1)−Vθ(st)A_{\theta}(s_t, a) = r_t + \gamma \cdot V_{\theta}(s_{t+1}) - V_{\theta}(s_t)Aθ​(st​,a)=rt​+γ⋅Vθ​(st+1​)−Vθ​(st​)

优势采样

短步长的优势估计器偏差大但方差小,长步长的优势估计器偏差小但方差大。这个权衡问题是强化学习中需要仔细选择和调整的部分,取决于模型的稳定性要求和训练效率。 Screenshot 2025-05-08 at 21.53.04 一个例子:“短期记忆的人只记得昨天发生的事,虽然不够全面,但很稳定;长期记忆的人能看清未来几天的全貌,但可能会被更多的未知因素所干扰。”

GAE

为了解决这个偏差 - 方差问题,可以使用 GAE(广义优势估计),本质上就是对所有的优势项的加权和,每项乘上一个衰减因子。

[!note] 现在来聊聊 TD 误差 在线学习有一个妙处:你不需要等到最后再更新策略。于是,时序差分误差(TD Error) 就登场了:

δ=r+γV(s′)−V(s)\delta = r + \gamma V(s') - V(s)δ=r+γV(s′)−V(s)

这里的关键是:TD 误差实际上是优势函数的在线估计。它告诉你,就在此刻,你的动作是否让未来状态比你预期的要好。这个误差 δ\deltaδ 直接反映了优势的概念:

  • 如果 δ>0\delta > 0δ>0:“嘿,这个动作比我想象中好!”(优势为正)。
  • 如果 δ<0\delta < 0δ<0:“嗯,我本来以为会更好……”(优势为负)。

这让你可以逐步调整你的策略,不用等到一整 episode 结束才做改变。这对提高效率来说,简直是绝佳策略。

GAE 的目的是在策略梯度算法中,提供一个比原始回报 R(τ)R(τ)R(τ) 或简单 TD 误差 δtδ_tδt​ 更好的优势函数 Aπ(s,a)A^π(s,a)Aπ(s,a) 的估计值 AtA^tAt,以降低梯度估计的方差,提高学习的稳定性和效率。

δt=rt+γVπ(st+1)−Vπ(st)A^t=δt+γλA^t+1\begin{align} \delta_t &= r_t + \gamma V^\pi(s_{t+1}) - V^\pi(s_t) \\ \hat{A}_t &= \delta_t + \gamma \lambda \hat{A}_{t+1} \end{align}δt​A^t​​=rt​+γVπ(st+1​)−Vπ(st​)=δt​+γλA^t+1​​​

这个公式递归地定义了广义优势估计 A^t\hat{A}_tA^t​。它不是只看一步的 TD 误差 δt\delta_tδt​,而是综合了未来多步的 TD 误差信息。

这个递归式从轨迹(episode)的末尾(假设 TTT 是最后一步,A^T+1=0\hat{A}_{T+1}=0A^T+1​=0)向前计算:

  • A^T=δT+0=δT\hat{A}_T = \delta_T + 0 = \delta_TA^T​=δT​+0=δT​
  • A^T−1=δT−1+γλA^T=δT−1+(γλ)δT\hat{A}_{T-1} = \delta_{T-1} + \gamma \lambda \hat{A}_T = \delta_{T-1} + (\gamma \lambda) \delta_TA^T−1​=δT−1​+γλA^T​=δT−1​+(γλ)δT​
  • A^T−2=δT−2+γλA^T−1=δT−2+(γλ)δT−1+(γλ)2δT\hat{A}_{T-2} = \delta_{T-2} + \gamma \lambda \hat{A}_{T-1} = \delta_{T-2} + (\gamma \lambda) \delta_{T-1} + (\gamma \lambda)^2 \delta_TA^T−2​=δT−2​+γλA^T−1​=δT−2​+(γλ)δT−1​+(γλ)2δT​
  • …
  • 一般形式:A^t=∑k=0∞(γλ)kδt+k\hat{A}_t = \sum_{k=0}^{\infty} (\gamma \lambda)^k \delta_{t+k}A^t​=∑k=0∞​(γλ)kδt+k​ (假设无限步长或在终止状态后的 δ\deltaδ 为 0)

参数 λ\lambdaλ(0≤λ≤10 \le \lambda \le 10≤λ≤1)是 GAE 的关键,它控制着估计 A^t\hat{A}_tA^t​ 的偏差(bias)和方差(variance):

  • 当 λ=0\lambda = 0λ=0 时:
    • A^t=δt\hat{A}_t = \delta_tA^t​=δt​。GAE 退化为简单的单步 TD 误差。这种估计方差较低(因为它只依赖于下一步的信息),但可能偏差较高(因为它严重依赖于可能不准确的 Vπ(st+1)V^{\pi}(s_{t+1})Vπ(st+1​) 的估计)。
  • 当 λ=1\lambda = 1λ=1 时:
    • A^t=∑k=0∞(γ)kδt+k\hat{A}_t = \sum_{k=0}^{\infty} (\gamma)^k \delta_{t+k}A^t​=∑k=0∞​(γ)kδt+k​。经过推导可以证明,这等价于 A^t=(∑k=0∞γkrt+k)−Vπ(st)\hat{A}_t = (\sum_{k=0}^{\infty} \gamma^k r_{t+k}) - V^{\pi}(s_t)A^t​=(∑k=0∞​γkrt+k​)−Vπ(st​),也就是蒙特卡洛(Monte Carlo)回报减去基线(baseline)。这种估计偏差较低(因为它使用了从 ttt 时刻开始的完整实际回报),但方差通常很高(因为它累积了多个时间步的随机性)。
  • 当 0<λ<10 < \lambda < 10<λ<1 时:
    • GAE 在上述两种极端情况之间进行插值。λ\lambdaλ 越接近 0,越偏向于低方差高偏差的 TD 估计;λ\lambdaλ 越接近 1,越偏向于高方差低偏差的 MC 估计。
    • 通过选择合适的 λ\lambdaλ(例如 0.97),GAE 试图在偏差和方差之间取得一个良好的平衡,从而得到一个既相对准确(偏差可控)又相对稳定(方差较小)的优势估计。

语言模型的 Advantage

如图,目标是提高在当前状态“上海”token 的 logprob,降低“巧克力”的 logprob,因为选择”上海“的优势高于选择“巧克力”(胡乱说的 token)的优势。

Screenshot 2025-04-24 at 23.13.57

重要性采样和离线学习

在很多情况下,我们可能想要计算 Ex∼p(x)[f(x)]E_{x \sim p(x)}[f(x)]Ex∼p(x)​[f(x)],但是:

  1. 我们很难或者无法直接从目标分布 p(x)p(x)p(x) 中采样得到 xxx。
  2. 或者从 p(x)p(x)p(x) 采样效率很低,语言模型中就是这个问题,LM 采样成本太高了。

但是,我们可能可以很容易地从另一个替代的,或称为提议(Proposal)的分布 q(x)q(x)q(x) 中进行采样。

重要性采样 (Importance Sampling, IS) 是一种通过从不同的分布采样来估计目标分布期望的技术,将一个在概率分布 p(x)p(x)p(x) 下计算的期望值 Ex∼p(x)[f(x)]E_{x \sim p(x)}[f(x)]Ex∼p(x)​[f(x)],转换为在另一个不同的概率分布 q(x)q(x)q(x) 下计算一个相关函数的期望值 Ex∼q(x)[p(x)q(x)f(x)]E_{x \sim q(x)}\left[\frac{p(x)}{q(x)} f(x)\right]Ex∼q(x)​[q(x)p(x)​f(x)]。

Ex∼p(x)[f(x)]=∫p(x)f(x) dx=∫q(x)q(x)p(x)f(x) dx(假设 q(x)≠0)=∫q(x)p(x)q(x)f(x) dx=Ex∼q(x)[p(x)q(x)f(x)]\begin{align} E_{x \sim p(x)}[f(x)] &= \int p(x) f(x) \, dx \\ &= \int \frac{q(x)}{q(x)} p(x) f(x) \, dx \quad \text{(假设 } q(x) \neq 0 \text{)} \\ &= \int q(x) \frac{p(x)}{q(x)} f(x) \, dx \\ &= E_{x \sim q(x)}\left[\frac{p(x)}{q(x)} f(x)\right] \end{align}Ex∼p(x)​[f(x)]​=∫p(x)f(x)dx=∫q(x)q(x)​p(x)f(x)dx(假设 q(x)=0)=∫q(x)q(x)p(x)​f(x)dx=Ex∼q(x)​[q(x)p(x)​f(x)]​​

这里的关键是引入了重要性权重(importance weight) w(x)=p(x)q(x)w(x) = \frac{p(x)}{q(x)}w(x)=q(x)p(x)​。这个权重的作用是修正偏差:对于一个从 q(x)q(x)q(x) 中抽到的样本 xix_ixi​,如果它在目标分布 p(x)p(x)p(x) 中出现的概率更高(p(xi)>q(xi)p(x_i) > q(x_i)p(xi​)>q(xi​)),就会给它一个大于 1 的权重;反之,如果它在 p(x)p(x)p(x) 中出现的概率更低(p(xi)<q(xi)p(x_i) < q(x_i)p(xi​)<q(xi​)),就会给它一个小于 1 的权重。这样加权平均后,就能得到对原始期望 Ex∼p(x)[f(x)]E_{x \sim p(x)}[f(x)]Ex∼p(x)​[f(x)] 的一个(通常是无偏或一致的)估计。

重要性采样允许我们:

  1. 从容易采样的分布 q(x)q(x)q(x) 中抽取样本 x1,x2,...,xNx_1, x_2, ..., x_Nx1​,x2​,...,xN​。
  2. 通过计算加权平均来估计原始的期望值:
    Ex∼p(x)[f(x)]≈1N∑i=1Np(xi)q(xi)f(xi)E_{x \sim p(x)}[f(x)] \approx \frac{1}{N} \sum_{i=1}^{N} \frac{p(x_i)}{q(x_i)} f(x_i)Ex∼p(x)​[f(x)]≈N1​i=1∑N​q(xi​)p(xi​)​f(xi​)

回到我们的场景。前面我们得到了 On-Policy 的策略梯度估计:

∇θ(J(θ))≈1N∑i=1N(∑t=0T∇θlog⁡πθ(ai,t∣si,t))Aπ(si,t,ai,t)\nabla_{\theta}(J(\theta)) \approx \frac{1}{N}\sum_{i=1}^{N}\left(\sum_{t=0}^{T} \nabla_{\theta} \log \pi_{\theta}(a_{i,t} | s_{i,t})\right) A^{\pi}(s_{i,t}, a_{i,t})∇θ​(J(θ))≈N1​i=1∑N​(t=0∑T​∇θ​logπθ​(ai,t​∣si,t​))Aπ(si,t​,ai,t​)

[!info] On-Policy 的含义:即采集数据用的策略和训练时用的策略是同一个。由于计算时需要使用从当前策略 πθ\pi_{\theta}πθ​ 采样生成的轨迹。这意味着每次策略更新后,旧数据就不能直接用了,样本效率低。至于 mini_batch_num > 1 时,后面用于更新的数据还算是 On-Policy 吗?严格意义上感觉不算,所以也可以理解为 Semi-On-Policy?(表达不一定严谨)。

而 On-Policy 则是强调当前策略模型能否和环境进行交互。[2]^{[2]}[2]

我们希望利用过去由旧策略 πθOFFLINE\pi_{\theta_{OFFLINE}}πθOFFLINE​​ 生成的数据(这些数据可能是大量存在的)来估计当前新策略 πθONLINE\pi_{\theta_{ONLINE}}πθONLINE​​ 的梯度。这样可以重复利用数据,提高样本效率。

回忆下重要性采样 IS 的原理: Ex∼p(x)[f(x)]=Ex∼q(x)[p(x)q(x)f(x)]E_{x \sim p(x)}[f(x)] = E_{x \sim q(x)}\left[\frac{p(x)}{q(x)} f(x)\right]Ex∼p(x)​[f(x)]=Ex∼q(x)​[q(x)p(x)​f(x)]。 对应到我们的 PG(简化考虑单步决策):

  • 目标分布 p(x)p(x)p(x) 对应新策略 πθONLINE(a∣s)\pi_{\theta_{ONLINE}}(a|s)πθONLINE​​(a∣s)。
  • 采样分布 q(x)q(x)q(x) 对应旧策略 πθOFFLINE(a∣s)\pi_{\theta_{OFFLINE}}(a|s)πθOFFLINE​​(a∣s)。
  • 重要性权重为 wt=πθONLINE(at∣st)πθOFFLINE(at∣st)w_t = \frac{\pi_{\theta_{ONLINE}}(a_t|s_t)}{\pi_{\theta_{OFFLINE}}(a_t|s_t)}wt​=πθOFFLINE​​(at​∣st​)πθONLINE​​(at​∣st​)​。

将重要性权重应用到 On-Policy 梯度的每一项(每个时间步 ttt),得到标准的 Off-Policy 估计:

∇θONLINE(J(θONLINE,θOFFLINE))≈1N∑i=1N∑t=0T[πθONLINE(ai,t∣si,t)πθOFFLINE(ai,t∣si,t)∇θONLINElog⁡πθONLINE(ai,t∣si,t)Aπ(si,t,ai,t)]\nabla_{\theta_{ONLINE}} (J(\theta_{ONLINE},\theta_{OFFLINE})) \approx \frac{1}{N}\sum_{i=1}^{N}\sum_{t=0}^{T} \left[ \frac{\pi_{\theta_{ONLINE}}(a_{i,t}|s_{i,t})}{\pi_{\theta_{OFFLINE}}(a_{i,t}|s_{i,t})} \nabla_{\theta_{ONLINE}} \log \pi_{\theta_{ONLINE}}(a_{i,t} | s_{i,t}) A^{\pi}(s_{i,t}, a_{i,t}) \right]∇θONLINE​​(J(θONLINE​,θOFFLINE​))≈N1​i=1∑N​t=0∑T​[πθOFFLINE​​(ai,t​∣si,t​)πθONLINE​​(ai,t​∣si,t​)​∇θONLINE​​logπθONLINE​​(ai,t​∣si,t​)Aπ(si,t​,ai,t​)]

现在我们找到了可以在不每次从我们正在优化的策略(要训练的模型)中采样的情况下完整梯度上升优化,而是只采样一次,将轨迹保存到内存/数据库中,用 mini-batch 优化策略,然后用新策略初始化离线策略(采样的策略)

PPO Loss

PPO Loss 主要由三个部分组成:策略损失(LPOLICYL_{POLICY}LPOLICY​)、价值函数损失(LVFL_{VF}LVF​)和熵奖励(LENTROPYL_{ENTROPY}LENTROPY​)。

1. 策略损失 (LPOLICYL_{POLICY}LPOLICY​)

Clipped Surrogate Objective (裁剪的替代目标)

LPOLICY=min⁡(πθ(at∣st)πθold(at∣st)A^t,clip(πθ(at∣st)πθold(at∣st),1−ϵ,1+ϵ)A^t)L_{POLICY} = \min \left( \frac{\pi_{\theta}(a_t|s_t)}{\pi_{\theta_{old}}(a_t|s_t)} \hat{A}_t, \text{clip} \left( \frac{\pi_{\theta}(a_t|s_t)}{\pi_{\theta_{old}}(a_t|s_t)}, 1-\epsilon, 1+\epsilon \right) \hat{A}_t \right)LPOLICY​=min(πθold​​(at​∣st​)πθ​(at​∣st​)​A^t​,clip(πθold​​(at​∣st​)πθ​(at​∣st​)​,1−ϵ,1+ϵ)A^t​)

这是 PPO 的核心。你会注意到它和我们前面用重要性采样推导出来的 off-policy 策略梯度目标有点像,但有一个关键的改动。

  • πθ(at∣st)πθold(at∣st)\frac{\pi_{\theta}(a_t|s_t)}{\pi_{\theta_{old}}(a_t|s_t)}πθold​​(at​∣st​)πθ​(at​∣st​)​: 这就是重要性采样比率,称之为 rt(θ)r_t(\theta)rt​(θ)。它是在状态 sts_tst​ 下,根据当前(在线)策略 πθ\pi_{\theta}πθ​ 采取动作 ata_tat​ 的概率,除以根据收集轨迹数据时使用的旧(离线)策略 πθold\pi_{\theta_{old}}πθold​​ 采取该动作的概率。这个比率修正了数据来自一个与我们当前试图改进的策略略有不同的策略这一事实。

  • A^t\hat{A}_tA^t​: 这是优势函数估计值,是使用 GAE 计算出来的,有助于平衡偏差和方差。它告诉我们,在状态 sts_tst​ 下采取动作 ata_tat​ 比在该状态下采取平均动作要好多少或差多少(根据当前的价值函数判断)。

  • clip 函数: 这就是 PPO 的关键点所在。 clip(rt(θ),1−ϵ,1+ϵ)\text{clip} \left( r_t(\theta), 1-\epsilon, 1+\epsilon \right)clip(rt​(θ),1−ϵ,1+ϵ) 它基本上是说:如果概率比率 rt(θ)r_t(\theta)rt​(θ) 偏离 1 太远(过高或过低),我们就把它“裁剪”掉。所以,如果 rt(θ)r_t(\theta)rt​(θ) 试图变成 1.51.51.5,而 ϵ\epsilonϵ 是 0.20.20.2,它就会被裁剪到 1.21.21.2。如果它试图变成 0.50.50.5,它就会被裁剪到 0.80.80.8。 参数 ϵ\epsilonϵ (epsilon) 是一个小的超参数(例如 0.1 或 0.2),它定义了裁剪范围 [1−ϵ,1+ϵ][1-\epsilon, 1+\epsilon][1−ϵ,1+ϵ]。

  • min 函数: 这个目标函数取了下面两项中的较小者:

    1. 未裁剪的目标:rt(θ)A^tr_t(\theta) \hat{A}_trt​(θ)A^t​

    2. 裁剪后的目标:clip(rt(θ),1−ϵ,1+ϵ)A^t\text{clip}(r_t(\theta), 1-\epsilon, 1+\epsilon) \hat{A}_tclip(rt​(θ),1−ϵ,1+ϵ)A^t​

      为什么要这样做呢? 策略梯度的目标是增加具有正优势的动作的概率,并减少具有负优势的动作的概率。 然而,使用重要性采样时,如果 rt(θ)r_t(\theta)rt​(θ) 变得非常大,可能会导致巨大的更新和不稳定性。PPO 通过裁剪这个比率来尝试保持新策略与旧策略的接近。

    • 如果 A^t>0\hat{A}_t > 0A^t​>0 (好动作): 我们希望增加 πθ(at∣st)\pi_{\theta}(a_t|s_t)πθ​(at​∣st​)。min 函数意味着如果 rt(θ)r_t(\theta)rt​(θ) 增长超过 1+ϵ1+\epsilon1+ϵ,目标函数就会被限制在 (1+ϵ)A^t(1+\epsilon)\hat{A}_t(1+ϵ)A^t​。这可以防止策略在单次更新中变化过大,即使未裁剪的目标会建议一个更大的增幅。
    • 如果 A^t<0\hat{A}_t < 0A^t​<0 (坏动作): 我们希望减少 πθ(at∣st)\pi_{\theta}(a_t|s_t)πθ​(at​∣st​)。如果 rt(θ)r_t(\theta)rt​(θ) 缩小到 1−ϵ1-\epsilon1−ϵ 以下,目标函数就会被限制在 (1−ϵ)A^t(1-\epsilon)\hat{A}_t(1−ϵ)A^t​。(注意:当 A^t<0\hat{A}_t < 0A^t​<0 时,rt(θ)A^tr_t(\theta)\hat{A}_trt​(θ)A^t​ 这一项在 rt(θ)r_t(\theta)rt​(θ) 较小时值较大(更接近零或为正),而 clip(...)A^t\text{clip}(...) \hat{A}_tclip(...)A^t​ 也是在 clip(...)\text{clip}(...)clip(...) 较小时值较大。这里的 min 实际上意味着当比率超出裁剪边界时,我们采取的是更悲观的更新步骤,或者说,导致 log 概率变化幅度更小的那一步。) 更准确地说,当 A^t<0\hat{A}_t < 0A^t​<0 时,乘积 rt(θ)A^tr_t(\theta)\hat{A}_trt​(θ)A^t​ 会随着 rt(θ)r_t(\theta)rt​(θ) 的增加而变得更负。min 操作确保了如果 rt(θ)r_t(\theta)rt​(θ) 偏离了 [1−ϵ,1+ϵ][1-\epsilon, 1+\epsilon][1−ϵ,1+ϵ] 区间,我们不会让目标变得过于负(也就是说,我们不会过分地降低该动作的概率)。

2. 价值函数损失 (LVFL_{VF}LVF​)

LVF=12∥Vθ(s)−(∑t′=tTγt′−trt′∣s0=s)∥22L_{VF} = \frac{1}{2} \left\| V_{\theta}(s) - \left( \sum_{t'=t}^{T} \gamma^{t'-t} r_{t'} \Big| s_0 = s \right) \right\|^2_2LVF​=21​​Vθ​(s)−(t′=t∑T​γt′−trt′​​s0​=s)​22​

这和前面的内容完全一样:

  • Vθ(s)V_{\theta}(s)Vθ​(s) 是价值网络的输出(即 LLM 顶部再加一个线性层,用来预测从状态 sss 开始的期望累积奖励)。
  • ∑γt′rt′\sum \gamma^{t'} r_{t'}∑γt′rt′​ 这一项(称之为 GsG_sGs​ 或目标价值)是从状态 sss 开始,并遵循当前策略直到回合结束所观察到的实际折扣奖励总和。这是我们为 Vθ(s)V_{\theta}(s)Vθ​(s) 设定的经验目标。
  • 这个损失函数就是预测值 Vθ(s)V_{\theta}(s)Vθ​(s) 和观察到的目标值 GsG_sGs​ 之间的均方误差(MSE)。我们希望价值函数能够准确预测未来的奖励。这个价值函数对于计算优势 A^t\hat{A}_tA^t​至关重要。

3. 熵奖励 (LENTROPYL_{ENTROPY}LENTROPY​)

LENTROPY=−∑xp(x)log⁡p(x)L_{ENTROPY} = - \sum_x p(x) \log p(x)LENTROPY​=−x∑​p(x)logp(x)
  • 这里的 p(x)p(x)p(x)(或者更准确地说是 πθ(a∣s)\pi_{\theta}(a|s)πθ​(a∣s),对于给定状态 sss 下所有可能的动作 aaa)代表了当前策略在给定状态下输出的动作概率分布。
  • ∑xp(x)log⁡p(x)\sum_x p(x) \log p(x)∑x​p(x)logp(x) 这一项是这个概率分布的熵。熵衡量的是分布的随机性或不确定性。均匀分布(非常随机)具有高熵,而尖峰分布(对某个动作非常确定)具有低熵。
  • 损失项是负熵。当我们在总损失 LPPOL_{PPO}LPPO​ 中最小化这个 LENTROPYL_{ENTROPY}LENTROPY​ 时(假设 c2c_2c2​ 是正的),我们实际上是在最大化策略的熵。

鼓励更高的熵可以促进探索,会让策略变得更随机一些,尝试不同的动作(在 LLM 的情况下就是尝试不同的 token),而不是过快地收敛到一个可能是次优的确定性策略。这有助于 Agent 发现更好的策略。

最终形式 LPPOL_{PPO}LPPO​

最终的 PPO 损失是这三个部分的加权和:

LPPO=LPOLICY+c1LVF+c2LENTROPYL_{PPO} = L_{POLICY} + c_1 L_{VF} + c_2 L_{ENTROPY}LPPO​=LPOLICY​+c1​LVF​+c2​LENTROPY​
  • c1LVFc_1 L_{VF}c1​LVF​: 价值函数损失,由 c1c_1c1​ 加权。c1c_1c1​ 的一个常见值是 0.50.50.5 左右。
  • c2LENTROPYc_2 L_{ENTROPY}c2​LENTROPY​: 熵奖励(如果 c2>0c_2 > 0c2​>0,实际上是对低熵的惩罚),由 c2c_2c2​ 加权。c2c_2c2​ 通常是一个小的正常数(例如 0.010.010.01),用于鼓励探索,同时又不会压倒主要的策略目标。

Agent 的参数(即 LLM 的权重)通过计算这个组合损失 LPPOL_{PPO}LPPO​ 的梯度并执行梯度下降来进行更新。

Reference Model

Reward Hacking

RL 的一大问题就是 reward-hacking,模型可能会学会总是输出带来好奖励但对人类来说没意义的 token 或序列,比如连续说十遍“谢谢你”来提升礼貌分数,所以我们希望对齐的模型(RL post-training 后)的输出尽量和原本模型的输出较为相近。

因此会有另一个冻结了权重的模型(ref model),我们要优化的模型在每个轨迹的每一步中通过 reward model 生成奖励的时候,这个奖励会减去 ref model 与优化的模型 log prob 之间的 KL 散度,作为惩罚项来防止模型生成与原始模型差异过大的答案,以此防止上面所说的模型作弊现象。

Screenshot 2025-05-08 at 00.43.14

Code walk through

trl

class AutoModelForCausalLMWithValueHead(PreTrainedModelWrapper):
    # ... (class attributes like transformers_parent_class) ...

这个类的核心目的是将一个标准的因果语言模型(Causal LM)(我们的 Actor Model,负责生成文本的策略 πθπ_θπθ​)与一个 Value Head(即 Critic Model,负责估计状态价值 V(s))捆绑在一起。在 PPO / Actor Critic 算法中,我们同时需要策略和价值函数,这个类就提供了一个统一的模型结构来同时输出这两者。

    def __init__(self, pretrained_model, **kwargs):
        super().__init__(pretrained_model, **kwargs) # 基础设置
        v_head_kwargs, _, _ = self._split_kwargs(kwargs) # 分离出给 ValueHead 的参数
 
        # 确保传入的是个有语言模型输出能力的模型
        if not any(hasattr(self.pretrained_model, attribute) for attribute in self.lm_head_namings):
            raise ValueError("The model does not have a language model head...")
 
        # 创建 ValueHead 实例,它将学习预测状态的价值 V(s)
        self.v_head = ValueHead(self.pretrained_model.config, **v_head_kwargs)
 
        # 初始化 ValueHead 的权重
        self._init_weights(**v_head_kwargs) # 默认随机初始化,也可以指定正态分布初始化
  1. 充当 Actor: 即我们的语言模型 pretrained_model,它会根据当前 prompt(状态 s)生成回应(动作 a,即一系列 token)。
  2. Critic: 评估 Actor 在某个状态 s 的“好坏”,即输出 V(s)V(s)V(s)。这就是线性层 self.v_head 的任务。
    def forward(
        self,
        input_ids=None, # 输入的 token IDs (状态 s)
        attention_mask=None,
        past_key_values=None, # 用于加速生成
        **kwargs,
    ):
        # 强制底层模型输出 hidden_states,ValueHead 需要它们作为输入
        kwargs["output_hidden_states"] = True
        # ... (处理 past_key_values 和 PEFT 的一些细节,PPO 核心理解中可先忽略)
 
        # 1. Actor (基础语言模型) 进行计算
        base_model_output = self.pretrained_model(
            input_ids=input_ids,
            attention_mask=attention_mask,
            **kwargs,
        )
 
        # 2. 提取 Actor 的输出 (用于策略更新) 和 Critic 的输入
        lm_logits = base_model_output.logits # Actor 的输出:预测下一个 token 的概率分布
        # 这是计算 PPO 中 L_POLICY 和 L_ENTROPY 的基础
 
        last_hidden_state = base_model_output.hidden_states[-1] # Critic 的输入:LM 最后一层的隐藏状态,
        # 代表了当前状态 s 的表征
 
        # (可选) 语言模型本身的损失,在 RL 阶段通常不直接用
        loss = base_model_output.loss
 
        # (确保数据和模型在同一设备)
        if last_hidden_state.device != self.v_head.summary.weight.device:
            last_hidden_state = last_hidden_state.to(self.v_head.summary.weight.device)
 
        # 3. Critic (ValueHead) 进行计算
        # ValueHead 接收状态表征,输出对该状态的价值估计 V(s)
        value = self.v_head(last_hidden_state).squeeze(-1) # 这是计算 PPO 中价值损失 L_VF 和优势 A_hat 的基础
 
        # (确保 logits 是 float32,为了数值稳定性)
        if lm_logits.dtype != torch.float32:
            lm_logits = lm_logits.float()
 
        # 返回 Actor 的 logits, LM loss (可能为 None), 和 Critic 的 value
        return (lm_logits, loss, value)

对于 PPO-RLHF 训练的每一步:

  1. 我们把当前的一批 prompt (序列 input_ids) 输入模型。
  2. self.pretrained_model (Actor) 会计算(Rollout)出 lm_logits。这些 logits 代表了在当前 prompt 下,模型认为接下来应该生成哪些词元的概率分布。PPO 的策略损失 LPOLICYL_{POLICY}LPOLICY​ 和熵奖励 LENTROPYL_{ENTROPY}LENTROPY​ 都需要基于这个概率分布πθ(at∣st)π_θ(a_t∣s_t)πθ​(at​∣st​)来计算。
  3. 同时,我们从 base_model_output 中取出 last_hidden_state。这可以看作是当前 prompt (状态 s) 的一个向量表示。
  4. 这个 last_hidden_state 被送入 self.v_head (Critic),输出一个标量 value。这个 value 就是模型对当前状态 s 的价值估计 Vθ(s)V_θ(s)Vθ​(s)。PPO 的价值函数损失 LVFL_{VF}LVF​ 就是要优化这个 Vθ(s)V_θ(s)Vθ​(s),使其尽可能接近真实的回报。并且,这个 Vθ(s)V_θ(s)Vθ​(s)也是计算优势函数 AtA^tAt 的关键组成部分,而 AtA^tAt 又会指导 LPOLICYL_{POLICY}LPOLICY​ 的计算。
  5. 同样的 prompt + response 序列输入给 Reward 和 Reference model 做推理,得到 reward 和 log probs(计算 KL 惩罚)。

所以一次 forward 调用,我们就同时获得了更新 Actor (策略) 和 Critic (价值函数) 所需的核心信息。 训练的流程可以借下图帮助了解:

rlhf-pipeline

[!tip] 在 RLHF 中,只有 Actor 在经验收集(Rollout)时需要 Prefill + Decode(完整的 Auto-Regressive Generation),其余的模型都是在处理已有的 response 获取 logprob 和 value 等,只做 Prefill。

此外 Actor 涉及训练和推理(指 Rollout),因此需要 training engine(如 Megatron、DeepSpeed 和 FSDP) + rollout engine(如 SGLang 和 vLLM)两者来各完成自己擅长的任务;Critic 推理时复用训练的 forward 中的内部表征来输出新的 value 预测,因此运行在同一个 training engine 中;而 Reference 和 Reward model 都只用推理引擎来得到 logprob 和 reward 即可。[3]^{[3]}[3]

verl

和 OpenRLHF 等都是优秀的 RLHF 框架,一个比较好的导读:【AI Infra】VeRL 框架入门&代码带读

Reference

  • [1] Umar Jamil: Reinforcement Learning from Human Feedback explained with math derivations and the PyTorch code. - YouTube
  • [2] [AI Infra] VeRL 框架入门&代码带读
  • [3] Chayenne Zhao: HybridFlow / veRL 原文浅析
Article Info Human-Crafted
Title 从 RL 来,到 RLHF 去
Author Nagi-ovo
URL
Last Updated No edits yet
Citation

商业转载请联系站长获得授权;非商业转载请注明出处并附上本文链接。

你可以复制、分发并改编本文,但衍生作品需采用相同许可协议。本文采用 CC BY-NC-SA 4.0 授权。

Session 00:00:00