Jiahong 的个人博客

凡事预则立,不预则废


  • Home

  • Tags

  • Archives

  • Navigation

  • Search

NLP——Megatron源码阅读笔记

  • 参考链接:
    • 各种并行的通信量:图解大模型训练之:张量模型并行(TP),Megatron-LM - 猛猿的文章 - 知乎
    • 模型分组及方式理解:Megatron-LM训练的大模型如何分组? - wx1997的文章 - 知乎
      • DP,TP,PP:TP > DP > PP,优先在机器内进行TP,其次是DP,最后是PP,因为通信量上是TP最多,DP其次,PP最后
    • 图解大模型系列之:Megatron源码解读1,分布式环境初始化 - 猛猿的文章 - 知乎
    • 图解大模型训练之:Megatron源码解读2,模型并行 - 猛猿的文章 - 知乎
    • 图解大模型训练系列之:Megatron源码解读3,分布式混合精度训练 - 猛猿的文章 - 知乎
    • Megatron-LM 中使用 DeepSpeed 加速:(DeepSpeed 官方文档)在 Megatron-LM 中加入 DeepSpeed
    • 专家并行论文:GShard: Scaling Giant Models with Conditional Computation and Automatic Sharding, 2020, Google
    • [张量/序列并行]📚图解 DeepSpeed-Ulysses & Megatron-LM TP/SP - DefTruth的文章 - 知乎:写的非常详细
    • [转]Megatron-LM源码系列(八): Context Parallel并行 - 李睿的文章 - 知乎:作者还有一些博客内容可供参考
      • Megatron-LM源码系列(一):模型并行初始化
      • Megatron-LM源码系列(二):Tensor模型并行和Sequence模型并行训练
      • Megatron-LM源码系列(三):详解Pipeline模型并行训练实现
      • Megatron-LM源码系列(四):重计算(recompute)
      • Megatron-LM源码系列(五): FP16使用
      • Megatron-LM源码系列(六):Distributed-Optimizer分布式优化器实现Part1
      • Megatron-LM源码系列(七):Distributed-Optimizer分布式优化器实现Part2
      • Megatron-LM源码系列(八): Context Parallel并行
    • Megatron 新版 MoE 源码阅读 - Fizzmy的文章 - 知乎
    • 知乎专栏:跟着执行流程阅读源码系列:
      • 跟代码执行流程,读Megatron源码(一)从目录结构开始 - AIer的文章 - 知乎
      • 跟代码执行流程,读Megatron源码(二)训练入口pretrain_gpt.py - AIer的文章 - 知乎
      • 跟代码执行流程,读Megatron源码(三)megatron训练脚本training.py之pretrain() - AIer的文章 - 知乎
      • 跟代码执行流程,读Megatron源码(四)megatron训练脚本initialize.py之initialize_megatron()分布式环境初始化 - AIer的文章 - 知乎

整体说明

  • 本文的代码以 Megatron-LM 20250904 的版本 e000263e21ac89571123303c4043ec9ea7261513 为主,还有部分更早的版本的代码(之前写的,没有修改)

Megatron 数据处理

  • 数据预处理负责将 .jsonl 的文本数据 tokenize 并处理成 Megatron 可以直接读取的数据格式(.bin 和 .idx 类型的文件),减少训练时的数据处理时间

  • 数据处理的使用方式详情参考:github.com/NVIDIA/Megatron-LM

    • 准备 .jsonl 文件,文件格式如下:

      1
      2
      {"text": "Your training text here..."}
      {"text": "Another training sample..."}
    • 数据预处理:

      1
      2
      3
      4
      5
      6
      7
      python tools/preprocess_data.py \
      --input data.jsonl \
      --output-prefix processed_data \
      --tokenizer-type HuggingFaceTokenizer \
      --tokenizer-model /path/to/tokenizer.model \
      --workers 8 \
      --append-eod
      • output-prefix:输出文件的前缀
      • append-eod:是否添加 EOD Token?
      • 注意:还可以根据需要设置 split_sentences 参数,对文档进行拆分成 sentence 再做 tokenize
  • process_data.py 的核心处理逻辑如下:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    # split sentences in partition files
    if args.split_sentences and not split_sentences_present:
    processes = []
    for name in in_ss_out_names:
    p = multiprocessing.Process(target=partition.split_sentences, # TODO(ZJH): 构造完成数据 sentence 分隔的进程
    args=((name['partition'], name['sentence_split']),)) # TODO(ZJH): 参数是输入文件名和分隔结果的输出文件名
    p.start() # TODO(ZJH): 启动进程
    processes.append(p)

    for p in processes:
    p.join()

    if args.partitions == 1:
    return


    # encode partition files in parallel
    processes = []
    input_key = 'sentence_split' if args.split_sentences else 'partition' # TODO(ZJH): 根据是否走 sentence_split 来选择输入文件
    for name in in_ss_out_names:
    p = multiprocessing.Process(target=partition.process_json_file, # TODO(ZJH): 构造完成数据 encode 的进程
    args=((name[input_key], name['output_prefix']),)) # TODO(ZJH): 参数是输入文件名(上一步处理后的)和分隔结果的输出文件名
    p.start() # TODO(ZJH): 启动进程
    processes.append(p)

    for p in processes:
    p.join()

    if args.partitions == 1:
    return

Megatron-LM 训练过程梳理

  • 总入口(以 GPTModel 为例):
    1
    2
    3
    4
    5
    6
    7
    8
    9
    pretrain(
    train_valid_test_datasets_provider,
    partial(model_provider, gpt_builder), # TODO(ZJH): model_provider 调用 gpt_builder 构造模型
    ModelType.encoder_or_decoder,
    forward_step,
    args_defaults={'tokenizer_type': 'GPT2BPETokenizer'},
    extra_args_provider=add_modelopt_args if has_nvidia_modelopt else None,
    store=store,
    )

pretrain 函数是总入口,包含的核心参数如下

pretrain 参数一:train_valid_test_datasets_provider,负责管理数据
  • 输出返回迭代器,这个迭代器每个 Batch 将包含一个 micro-batch 数据
pretrain 参数二:partial(model_provider, gpt_builder),对应 model_provider 参数,负责构造并,返回模型对象
  • 返回对象的 __init__ 函数负责实现 模型结构定义

  • 返回的模型对象会实现一个 forward 函数

  • 该函数依次调用 _preprocess(),decoder() 和 _postprocess() 实现整体逻辑

    • _preprocess 负责处理输入层,包含位置编码等信息,返回 decoder 的输入
    • decoder 负责模型主要前向流程
    • _postprocess 负责处理输出层,包括 MTP 处理、 损失函数定义等,返回 损失函数值(lm_loss, 交叉熵损失)
      • 若需要执行 MTP 过程,执行 MTP 过程,同时若打开训练,则 MTP loss 在这里被计算(
        • 使用 mtp_num_layers 来表示 MTP 的深度,每深一层都会多预测一个 Token,每层对应交叉熵损失,然后乘以 loss_mask
        • 处理后的 MTP 损失使用 MTPLossAutoScaler(是 torch.autograd.Function 的子类,是 PyTorch 自定义算子的实现 ) 实现前向和反向传播
          1
          2
          3
          4
          5
          6
          7
          8
          9
          10
          11
          12
          13
          14
          15
          16
          17
          18
          19
          20
          21
          22
          23
          24
          25
          26
          27
          28
          29
          30
          31
          32
          33
          34
          35
          36
          37
          38
          39
          40
          41
          42
          43
          44
          45
          46
          47
          48
          49
          50
          51
          52
          53
          54
          55
          56
          57
          58
          59
          60
          61
          62
          63
          64
          65
          66
          67
          68
          # TODO(ZJH): 将 MTP 的每个 Token(t+2...t+k)的 loss 都添加到(通过特殊的自定义算子)主网络的计算依赖上,从而保证对主网络求梯度时,MTP 相关的梯度也能回传
          if self.mtp_process:
          mtp_labels = labels.clone()
          hidden_states_list = torch.chunk(hidden_states, 1 + self.config.mtp_num_layers, dim=0) # TODO(ZJH): 将多个 hidden_state 拆开
          hidden_states = hidden_states_list[0] # TODO(ZJH): 主函数的输出
          if loss_mask is None:
          # if loss_mask is not provided, use all ones as loss_mask
          loss_mask = torch.ones_like(mtp_labels)
          for mtp_layer_number in range(self.config.mtp_num_layers): # TODO(ZJH): 每一层都计算 loss,每一层代表一个更深的未来 Token 预测目标
          # output
          mtp_logits, _ = self.output_layer( # TODO(ZJH): 每个 hidden_states 都要走 output_layer 得到 logits 后再计算损失
          hidden_states_list[mtp_layer_number + 1], # TODO(ZJH): hidden_states_list[0] 是主网络的 hidden_state
          weight=output_weight,
          runtime_gather_output=runtime_gather_output,
          )
          # Calc loss for the current Multi-Token Prediction (MTP) layers.
          mtp_labels, _ = roll_tensor(mtp_labels, shifts=-1, dims=-1, cp_group=self.cp_group) # TODO(ZJH): MTP 目标逐步后移
          loss_mask, num_tokens = roll_tensor(
          loss_mask, shifts=-1, dims=-1, cp_group=self.cp_group
          )
          mtp_loss = self.compute_language_model_loss(mtp_labels, mtp_logits)
          mtp_loss = loss_mask * mtp_loss
          if self.training:
          # TODO(shifangx): remove the use of parallel_state here
          # after moving loss logging to loss_func in pretrain_gpt.py
          MTPLossLoggingHelper.save_loss_to_tracker( # TODO(ZJH): for logging
          torch.sum(mtp_loss) / num_tokens,
          mtp_layer_number,
          self.config.mtp_num_layers,
          avg_group=parallel_state.get_data_parallel_group(
          with_context_parallel=True
          ),
          )
          mtp_loss_scale = self.config.mtp_loss_scaling_factor / self.config.mtp_num_layers # TODO(ZJH): 根据参数和层数计算 scale,除以 mtp_num_layers 得到平均值,保证总的 MTP loss 量级(影响)不变
          if self.config.calculate_per_token_loss: # TODO(ZJH): 判断损失是否按照 Token 做平均
          # TODO(ZJH): MTPLossAutoScaler 是特殊的自定义算子,不改变第一个参数的值(输入即输出),求导时直接返回 第二个参数(loss)*scale 作为梯度
          hidden_states = MTPLossAutoScaler.apply( # TODO(ZJH): 经过这个自定义算子后,不会改变 hidden_states 的值(注意 hidden_states 始终是主网络的隐藏层),但对 hidden_states 计算梯度会直接返回 mtp_loss_scale * mtp_loss
          hidden_states, mtp_loss_scale * mtp_loss
          ) # TODO(ZJH): hidden_states 经过所有层后,最终得到的是所有 MTP 层 Token 的梯度(多个深度的 Token 一起)
          else:
          hidden_states = MTPLossAutoScaler.apply(
          hidden_states, mtp_loss_scale * mtp_loss / num_tokens
          )
          sequence_parallel_override = False
          if in_inference_mode and inference_context.materialize_only_last_token_logits:
          if inference_context.is_static_batching():
          hidden_states = hidden_states[-1:, :, :]
          else:
          if self.output_layer.sequence_parallel:
          # Perform the sequence parallel gather here instead of after the output layer
          # because we need to slice the last token logits from the full view of the
          # packed logits across all requests.
          # TODO(ksanthanam): Make the equivalent change in the `MambaModel` code after
          # merging in !3722.
          hidden_states = gather_from_sequence_parallel_region(
          hidden_states, group=self.model_comm_pgs.tp
          )
          self.output_layer.sequence_parallel = False
          sequence_parallel_override = True
          # Reshape [B, 1, H] to [1, B, H] -> extract each sample’s true last‐token hidden
          # state ([B, H]) -> unsqueeze back to [1, B, H]
          # (so that the output layer, which expects S×B×H, receives only the final token)
          hidden_states = inference_context.last_token_logits(
          hidden_states.squeeze(1).unsqueeze(0)
          ).unsqueeze(1)
          logits, _ = self.output_layer( # TODO(ZJH):主网络的 logits 计算
          hidden_states, weight=output_weight, runtime_gather_output=runtime_gather_output
          )
  • model_provider 函数(也是 pretrain 的入参)会返回一个模型 model

    • 这个返回的模型实现了 forward 函数,model.forward 函数整体返回值是一个 loss 值(主网络的 loss,但计算图上带着 MTP 所有深度上的 loss),该值是由 _postprocess 返回的值
pretrain 参数三:forward_step,输入参数包括模型,负责调用模型执行前向过程,并返回 loss 指针等
  • 返回的 loss 函数指针可以被调用,从而计算 loss

pretrain 的工作包括环境初始化,执行训练过程等

第一步:initialize_megatron(),初始化分布式环境,包括 TP,PP,DP 等的子进程组等
第二步:setup_model_and_optimizer(),定义模型架构,切割模型,完成 optimizer 初始化
第三步:build_train_valid_test_data_iterators(), 获取数据 iterator
第四步:train(),训练入口
  • 训练的入参包括上面得到的各种结果

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    def train(
    forward_step_func,
    model,
    optimizer,
    opt_param_scheduler,
    train_data_iterator,
    valid_data_iterator,
    process_non_loss_data_func,
    config,
    checkpointing_context,
    non_loss_data_func,
    ):
  • train_step():训练过程包含一个主要的 while 循环,每次走一个 train_step()

    1
    2
    def train_step(forward_step_func, data_iterator, model, optimizer, opt_param_scheduler, config, forward_backward_func): # TODO(ZJH): 单步训练入口
    """Single training step."""
    • train_step 第一步:forward_backward_func(),完成一次前向和后向过程,是训练的核心函数,也最难

      • 实际上调用的函数 forward_backward_func 经过层层函数传递 train_step() <- train() <- megatron/core/pipeline_parallel/schedules.py,最终可追述到 schedules.py 文件的 get_forward_backward_func() 函数

        1
        2
        3
        4
        5
        6
        7
        8
        9
        10
        def get_forward_backward_func():
        pipeline_model_parallel_size = parallel_state.get_pipeline_model_parallel_world_size()
        if pipeline_model_parallel_size > 1: # TODO(ZJH): 若打开 PP
        if parallel_state.get_virtual_pipeline_model_parallel_world_size() is not None:
        forward_backward_func = forward_backward_pipelining_with_interleaving # TODO(ZJH): 若打开 interleaving pipeline 调度
        else:
        forward_backward_func = forward_backward_pipelining_without_interleaving # TODO(ZJH): 若关闭 interleaving pipeline 调度
        else:
        forward_backward_func = forward_backward_no_pipelining # TODO(ZJH): 没有 PP 的情况
        return forward_backward_func
      • 若打开 PP

        • 开启 interleaving pipeline:forward_backward_pipelining_with_interleaving
          • 负责实现对应的 1F1B 调度策略,函数内部像 forward_backward_no_pipelining 函数一样,会调用 forward_step 和 backward_step 两步完成前向后向过程和梯度的积累
        • 未开启 interleaving pipeline:forward_backward_pipelining_without_interleaving
          • 在 forward_backward_pipelining_with_interleaving 的基础上,增加了 interleaving 调度策略(实现则更为复杂),进一步优化气泡
        • 其他特殊的 Pipeline 并行调度策略,如 zero_bubble 的调度,实现都在这里新建函数就可以
      • 若为 没有打开 PP 的情况:调用同文件(schedules.py)下的 forward_backward_no_pipelining() 函数,下面是该函数的介绍:

        • 前向过程+后向过程函数为(config.overlap_moe_expert_parallel_comm 为 True):combined_1f1b_schedule_for_no_pipelining

          • 注:config.overlap_moe_expert_parallel_comm 为 True 表示 框架会尝试将专家并行所需的通信操作(如数据传输)与模型的计算操作(如其他层的前向 / 反向计算)重叠进行,而不是等通信完成后再执行计算

            1
            2
            3
            4
            5
            6
            7
            8
            9
            10
            11
            12
            13
            14
            15
            16
            17
            18
            19
            20
            if config.overlap_moe_expert_parallel_comm and not forward_only: # TODO(ZJH): 如果打开 overlap MoE 的专家并行通信(将专家并行(expert parallelism)中的通信操作与计算操作重叠执行),且包含 backward
            # TODO(ZJH): 当 config.overlap_moe_expert_parallel_comm 设为 True 时,框架会尝试将专家并行所需的通信操作(如数据传输)与模型的计算操作(如其他层的前向 / 反向计算)重叠进行,而不是等通信完成后再执行计算
            forward_data_store, total_num_tokens = combined_1f1b_schedule_for_no_pipelining( # TODO(ZJH): 1次前向+1次后向过程
            forward_step_func,
            data_iterator,
            model,
            num_microbatches,
            input_tensor,
            output_tensor_grad,
            forward_data_store,
            config,
            collect_non_loss_data,
            first_val_step,
            forward_only,
            no_sync_func,
            total_num_tokens,
            partial(check_first_val_step, first_val_step, forward_only),
            )
            else:
            # forward_step 和 backward_step 交替执行
          • 分开执行的函数分别为:forward_step 和 backward_step (这里会调用 for 循环完成多个 microbatches, forward_step 和 backward_step 在循环南北部)

            • 前置说明:microbatches - 1 个 microbatches 先调用,然后最后一个负责处理梯度同步等
              1
              2
              3
              4
              5
              6
              7
              8
              9
              10
              11
              12
              13
              14
              15
              16
              17
              18
              19
              20
              21
              22
              23
              24
              25
              26
              27
              28
              29
              30
              31
              32
              33
              34
              35
              36
              37
              38
              39
              40
              41
              42
              43
              44
              45
              46
              47
              48
              49
                  with no_sync_func(): # TODO(ZJH): 如果 no_sync_func 上下文管理器 是一个实际的同步禁用逻辑(比如禁用某些 IO 同步、锁机制等),则代码块会在 “不执行同步” 的环境中运行
              for i in range(num_microbatches - 1): # TODO(ZJH): 每个设备负责多个 microbatches,注意这里少一个
              output_tensor, num_tokens = forward_step( # TODO(ZJH): 前向过程,注意,这里是单个 microbatch 走一次
              forward_step_func,
              data_iterator,
              model,
              num_microbatches,
              input_tensor,
              forward_data_store,
              config,
              grad_finalize_pgs.cp.size(),
              collect_non_loss_data,
              is_first_microbatch=check_first_val_step(first_val_step, forward_only, i == 0),
              current_microbatch=i,
              )
              total_num_tokens += num_tokens # TODO(ZJH): 累加 Token 数
              if not forward_only:
              backward_step( # TODO(ZJH): 后向过程,梯度直接累加(forward 中已经对 loss/num_microbatches)
              input_tensor, output_tensor, output_tensor_grad, model_type, config
              )
              # Run computation for last microbatch out of context handler (want to
              # synchronize gradients).
              output_tensor, num_tokens = forward_step( # TODO(ZJH): 最后一个梯度单独处理,这个梯度的计算要在 context handler 之外,核心原因是确保最后一次梯度计算完成后能触发必要的同步操作,从而保证梯度的正确性和一致性
              forward_step_func,
              data_iterator,
              model,
              num_microbatches,
              input_tensor,
              forward_data_store,
              config,
              grad_finalize_pgs.cp.size(),
              collect_non_loss_data,
              is_first_microbatch=check_first_val_step(
              first_val_step, forward_only, num_microbatches == 1
              ),
              current_microbatch=num_microbatches - 1,
              )
              total_num_tokens += num_tokens # TODO(ZJH): 累加 Token 数
              if not forward_only:
              backward_step(input_tensor, output_tensor, output_tensor_grad, model_type, config)
              # TODO(ZJH): 梯度聚合
              if config.finalize_model_grads_func is not None and not forward_only:
              # Finalize model grads (perform full grad all-reduce / reduce-scatter for
              # data parallelism and layernorm all-reduce for sequence parallelism).
              config.finalize_model_grads_func( # TODO(ZJH): 梯度聚合操作 all_reduce + reduce-scatter ?
              [model],
              total_num_tokens if config.calculate_per_token_loss else None,
              grad_finalize_pgs=grad_finalize_pgs,
              )
          • forward_step() 执行过程:

            1
            2
            3
            4
            5
            6
            7
            8
            9
            10
            11
            12
            13
            14
            15
            16
            17
            18
            19
            20
            21
            forward_step 核心代码如下:

            with context_manager:
            if checkpoint_activations_microbatch is None:
            output_tensor, loss_func = forward_step_func(data_iterator, model)
            else:
            output_tensor, loss_func = forward_step_func(
            data_iterator, model, checkpoint_activations_microbatch
            )
            output_tensor, num_tokens = forward_step_calc_loss(
            model,
            output_tensor,
            loss_func,
            config,
            vp_stage,
            collect_non_loss_data,
            num_microbatches,
            forward_data_store,
            cp_group_size,
            is_last_stage,
            )
            • 其中,forward_step_calc_loss 核心代码如下:
              1
              2
              3
              4
              5
              6
              7
              8
              9
              10
              11
              12
              13
              14
              15
              16
              17
              18
              19
              if is_last_stage: # TODO(ZJH): 只有最后一个 stage 包含 loss,其他 stage 都不需要计算
              if not collect_non_loss_data:
              outputs = loss_func(output_tensor) # TODO(ZJH): 获取损失值,详情见 pretrain_gpt.py 的 loss_func 的返回值(中间使用 forward_step 作为 partial 封装)
              if len(outputs) == 3:
              output_tensor, num_tokens, loss_reduced = outputs
              # TODO(ZJH): 当 calculate_per_token_loss=True 时,损失计算会保留每个 token 的损失值(即按 token 粒度计算损失),通常用于需要获取单 token 损失的场景(如后续可能的梯度裁剪、损失分析等)
              if not config.calculate_per_token_loss: # TODO(ZJH): 当 calculate_per_token_loss=False 时,损失会被归一化(通常除以总 token 数和微批次数量),得到一个全局平均损失,这是训练中更常见的做法(避免损失值因批次大小不同而波动)
              output_tensor /= num_tokens # TODO(ZJH): 视情况看是否需要做 Token 粒度的归一化
              output_tensor /= num_microbatches # TODO(ZJH): 这里是单个 Batch,但除以 num_microbatches,是为了后续 backward 时梯度可以直接累加
              else:
              # preserve legacy loss averaging behavior (ie, over the number of microbatches)
              assert len(outputs) == 2
              output_tensor, loss_reduced = outputs
              output_tensor *= cp_group_size
              output_tensor /= num_microbatches
              forward_data_store.append(loss_reduced)
              else:
              data = loss_func(output_tensor, non_loss_data=True)
              forward_data_store.append(data)
          • backward_step() 执行过程:

            • 后向过程,可选择自定义的 backward 或 PyTorch 标准的官方实现,梯度直接累加(forward 中已经对 loss/num_microbatches)
              1
              2
              3
              4
              5
              if output_tensor[0].requires_grad:
              if config.deallocate_pipeline_outputs:
              custom_backward(output_tensor[0], output_tensor_grad[0]) # TODO(ZJH): 使用自定义的 backward
              else:
              torch.autograd.backward(output_tensor[0], grad_tensors=output_tensor_grad[0]) # TODO(ZJH): 直接使用 backward
    • train_step 第二步:optimizer.step()

      • 用梯度完成一次完整的参数更新
    • train_step 第三步:继续处理 loss 并上报

      • 注:调用完 optimizer 后,还要继续处理 loss 的原因是梯度更新不需要汇总 DP 的 loss,只有上报时需要聚合 所有 DP 的数据

附录:Megatron MTP 损失绑定函数的测试

  • MTP 损失绑定到 main_hidden_states 的方式是通过一个不修改值,但绑定梯度的自定义算子 MTPLossAutoScaler 实现:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    # megatron/core/transformer/multi_token_prediction.py
    class MTPLossAutoScaler(torch.autograd.Function): # TODO(ZJH): 相当于在实现自定义的 PyTorch 算子
    """An AutoScaler that triggers the backward pass and scales the grad for mtp loss."""

    main_loss_backward_scale: torch.Tensor = torch.tensor(1.0)

    @staticmethod
    def forward(ctx, output: torch.Tensor, mtp_loss: torch.Tensor): # TODO(ZJH): 前向过程,存储 loss,返回输入的原始值,不做任何计算
    """Preserve the mtp by storing it in the context to avoid garbage collection.

    Args:
    output (torch.Tensor): The output tensor.
    mtp_loss (torch.Tensor): The mtp loss tensor.

    Returns:
    torch.Tensor: The output tensor.
    """
    ctx.save_for_backward(mtp_loss)
    return output

    @staticmethod
    def backward(ctx, grad_output: torch.Tensor): # TODO(ZJH): 后向过程,获取前向过程存储的 loss,乘以 main_loss_backward_scale 并返回
    """Compute and scale the gradient for mtp loss..

    Args:
    grad_output (torch.Tensor): The gradient of the output.

    Returns:
    Tuple[torch.Tensor, torch.Tensor]: The gradient of the output, scaled mtp loss
    gradient.
    """
    (mtp_loss,) = ctx.saved_tensors
    mtp_loss_backward_scale = MTPLossAutoScaler.main_loss_backward_scale
    scaled_mtp_loss_grad = torch.ones_like(mtp_loss) * mtp_loss_backward_scale
    return grad_output, scaled_mtp_loss_grad
  • MTPLossAutoScaler 算子测试代码:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    41
    42
    43
    44
    45
    46
    47
    48
    49
    50
    51
    52
    53
    54
    55
    56
    57
    58
    59
    60
    61
    62
    63
    64
    65
    66
    67
    68
    69
    70
    71
    72
    73
    74
    75
    76
    77
    78
    79
    80
    81
    82
    83
    84
    import torch

    # 待测试类(直接复用原代码)
    class MTPLossAutoScaler(torch.autograd.Function):
    main_loss_backward_scale: torch.Tensor = torch.tensor(1.0)

    @staticmethod
    def forward(ctx, output: torch.Tensor, mtp_loss: torch.Tensor):
    ctx.save_for_backward(mtp_loss)
    return output

    @staticmethod
    def backward(ctx, grad_output: torch.Tensor):
    (mtp_loss,) = ctx.saved_tensors
    scaled_mtp_loss_grad = torch.ones_like(mtp_loss) * MTPLossAutoScaler.main_loss_backward_scale
    return grad_output, scaled_mtp_loss_grad

    def test_all_scenarios():
    # 初始化模型可训练参数(所有场景共用)
    x = torch.tensor([2.0], requires_grad=True)
    y = torch.tensor([3.0], requires_grad=True)

    # 定义测试场景配置(场景名、mtp_loss构造、scale系数)
    scenarios = [
    # 场景1:mtp_loss不依赖参数 + scale=1.0
    ("不依赖参数 + scale=1.0", lambda: torch.tensor([5.0], requires_grad=True), 1.0),
    # 场景2:mtp_loss不依赖参数 + scale=0.3
    ("不依赖参数 + scale=0.3", lambda: torch.tensor([5.0], requires_grad=True), 0.3),
    # 场景3:mtp_loss依赖参数(x+y) + scale=1.0
    ("依赖参数3*(x+y) + scale=1.0", lambda: 3*(x + y), 1.0),
    # 场景4:mtp_loss依赖参数(x+y) + scale=0.6
    ("依赖参数3*(x+y) + scale=0.6", lambda: 3*(x + y), 0.6),
    ]

    for scenario_name, mtp_loss_fn, scale in scenarios:
    # 重置梯度和scale系数
    x.grad = None
    y.grad = None
    MTPLossAutoScaler.main_loss_backward_scale = torch.tensor(scale)

    # 1. 计算模型输出和mtp_loss
    output = x * y # 模型输出(固定逻辑:x*y,梯度易验证)
    mtp_loss = mtp_loss_fn()

    # 关键修复:为mtp_loss保留梯度(无论是否为叶子张量)
    mtp_loss.retain_grad() # mtp_loss 依赖模型参数时(mtp_loss 非叶子张量),mtp_loss.grad 不存在,使用 retain_grad() 强制保留其梯度,方便后续查看

    # 2. 使用AutoScaler处理
    scaled_output = MTPLossAutoScaler.apply(output, mtp_loss)

    # 3. 构造总损失并反向传播
    total_loss = scaled_output.sum()
    total_loss.backward()

    # 4. 打印结果(保留1位小数,简洁清晰)
    print(f"=== {scenario_name} ===")
    # 确保grad存在(避免None报错)
    mtp_grad = mtp_loss.grad.item() # 注意:若不使用 mtp_loss.retain_grad(),则 mtp_loss 依赖模型参数时(mtp_loss 非叶子张量),mtp_loss.grad 不存在
    print(f"mtp_loss梯度: {mtp_grad:.1f}") # 验证scale是否生效
    print(f"参数x梯度: {x.grad.item():.1f}") # 验证是否受mtp_loss依赖关系影响
    print(f"参数y梯度: {y.grad.item():.1f}\n") # 验证是否受mtp_loss依赖关系影响

    if __name__ == "__main__":
    test_all_scenarios()

    # === 不依赖参数 + scale=1.0 ===
    # mtp_loss梯度: 1.0
    # 参数x梯度: 3.0
    # 参数y梯度: 2.0
    #
    # === 不依赖参数 + scale=0.3 ===
    # mtp_loss梯度: 0.3
    # 参数x梯度: 3.0
    # 参数y梯度: 2.0
    #
    # === 依赖参数3*(x+y) + scale=1.0 ===
    # mtp_loss梯度: 1.0
    # 参数x梯度: 6.0
    # 参数y梯度: 5.0
    #
    # === 依赖参数3*(x+y) + scale=0.6 ===
    # mtp_loss梯度: 0.6
    # 参数x梯度: 4.8
    # 参数y梯度: 3.8

NLP——技术报告解读-Qwen3

注:本文包含 AI 辅助创作

  • 参考链接:
    • 原始论文:Qwen3 Technical Report, Qwen, 20250514
    • Qwen3技术报告解读-包包算法笔记
    • Qwen3技术报告解读-刘聪NLP
    • Github 链接:github.com/QwenLM/Qwen3
      • github.com/QwenLM/Qwen3/tree/main/examples/llama-factory 文件夹下有 Qwen3 在 Llama-factory 框架下微调的方法

Paper Summary

  • 整体说明:
    • Qwen3 包含一系列 LLM,包括 Dense 和 MoE 模型,参数规模从 0.6B 到 235B 不等(这个模型 Size 的丰富度,可以称为地表最强开源模型了)
    • Qwen3 的一项关键创新是将思考模式(thinking mode,用于复杂的多步推理)和非思考模式(non-thinking mode,用于快速的上下文驱动响应)集成到一个统一框架中
    • Qwen3 引入了思考预算(thinking budget)机制,允许用户在推理过程中自适应地分配计算资源,从而根据任务复杂度平衡延迟和性能
    • 该模型基于包含 36 万亿 token 的大规模数据集进行预训练,能够理解和生成 119 种语言和方言的文本
    • Qwen3 在预训练和训练后模型的标准基准测试中均表现出色,涵盖代码生成、数学、推理和 Agent 相关任务
  • 利用旗舰模型的知识(蒸馏小模型),显著减少了构建小规模模型所需的计算资源,同时确保其具备高度竞争力
  • Qwen3 在多样化基准测试中取得了 SOTA 结果,包括代码生成、数学推理、智能体任务等,与更大的 MoE 模型和专有模型相比具有竞争力
  • 与上一代 Qwen2.5 相比,Qwen3 将多语言支持从 29 种扩展到 119 种语言和方言

Introduction and Discussion

  • 人类的目标:人工通用智能(Artificial General Intelligence, AGI)或人工超级智能(Artificial Super Intelligence, ASI)
  • 这项工作介绍了基础模型家族 Qwen 的最新系列 Qwen3
    • Qwen3 是一组开源 LLM ,在广泛的任务和领域中实现了 SOTA 性能
    • 发布了 Dense 和 MoE 模型,参数数量从 0.6B 到 235B 不等,以满足不同下游应用的需求
    • 旗舰模型 Qwen3-235B-A22B 是一个 MoE 模型,总参数为 235B,每个 token 激活的参数为 22B
      • 这种设计确保了高性能和高效的推理
  • Qwen3 引入了多项关键技术进步以增强其功能和可用性
    • 首先,它将两种不同的操作模式(思考模式和非思考模式)集成到单一模型中
      • 这使得用户无需在不同模型之间切换(例如从 Qwen2.5 切换到 QwQ (2024))即可切换模式
      • 这种灵活性确保开发者和用户可以高效地根据特定任务调整模型行为
    • 此外,Qwen3 引入了思考预算,使用户能够精细控制模型在执行任务时应用的推理努力水平
      • 这一能力对于优化计算资源和性能至关重要,能够根据实际应用中的复杂度调整模型的思考行为
    • 此外,Qwen3 在涵盖 119 种语言和方言的 36 万亿 token 上进行了预训练,有效增强了其多语言能力
      • 这种广泛的语言支持扩大了其在全球用例和国际应用中的部署潜力
    • 这些进步共同使 Qwen3 成为 SOTA 开源大语言模型家族,能够有效解决跨领域和跨语言的复杂任务
  • Qwen3 的预训练过程使用了约 36 万亿 token 的大规模数据集,经过精心筛选以确保语言和领域的多样性
    • 为了高效扩展训练数据,作者采用了多模态方法:Qwen2.5-VL (2025) 被微调以从大量 PDF 文档中提取文本
    • 作者还使用领域特定模型生成合成数据:Qwen2.5-Math (2024) 用于数学内容,Qwen2.5-Coder (2024) 用于代码相关数据
  • 预训练过程采用三阶段策略:
    • 1)通用阶段(S1) :所有 Qwen3 模型在 4,096 token 的序列长度上训练超过 30 万亿 token
      • 在此阶段,模型在语言能力和通用世界知识上完成了全面预训练,训练数据涵盖 119 种语言和方言
    • 2)推理阶段(S2) :为了进一步提升推理能力,作者优化了本阶段的预训练语料库,增加了 STEM、编码、推理和合成数据的比例
      • 模型在 4,096 token 的序列长度上进一步训练约 5 万亿高质量 token
      • 在此阶段,作者加速了学习率衰减
    • 3)长上下文阶段(S3) :在最后的预训练阶段,作者收集高质量的长上下文语料以扩展 Qwen3 模型的上下文长度
      • 所有模型在 32,768 token 的序列长度上训练了数千亿 token
      • 长上下文语料库包含 75% 长度在 16,384 到 32,768 token 之间的文本,以及 25% 长度在 4,096 到 16,384 token 之间的文本
  • 为了更好地将基础模型与人类偏好和下游应用对齐,作者采用了多阶段后训练方法,同时赋能思考(推理)和非思考模式
    • 在前两个阶段,通过长 CoT 冷启动微调和专注于数学与编码任务的强化学习 ,开发了强大的推理能力
    • 在最后两个阶段,将带有和不带有推理路径的数据合并为一个统一数据集进行进一步微调 ,使模型能够有效处理两种类型的输入,随后应用通用领域的强化学习以提升在广泛下游任务中的性能
    • 对于小模型,使用强到弱蒸馏(strong-to-weak distillation),利用从大模型的 Off-policy 和 On-policy 知识迁移来增强其能力
      • 从高级教师模型的蒸馏在性能和训练效率上显著优于强化学习

Architecture

  • Qwen3 系列包括 6 个 Dense 模型(Qwen3-0.6B、Qwen3-1.7B、Qwen3-4B、Qwen3-8B、Qwen3-14B 和 Qwen3-32B)和 2 个 MoE 模型(Qwen3-30B-A3B 和 Qwen3-235B-A22B)
    • 旗舰模型 Qwen3-235B-A22B 总参数为 235B,激活参数为 22B
  • Qwen3 Dense 模型的架构与 Qwen2.5 (2024) 类似,包括使用如下组件:
    • 分组查询注意力(Grouped Query Attention, GQA)(2023)
    • SwiGLU (2017)
    • 旋转位置嵌入(Rotary Positional Embeddings, RoPE)(2024)
    • RMSNorm (2023) 的预归一化(pre-normalization)
  • Qwen3 移除了 Qwen2 (2024) 中使用的 QKV 偏置(QKV-bias),并在注意力机制中引入了 QK 归一化(QK-Norm)(2023) 以确保 Qwen3 的训练稳定性
  • 模型架构的关键信息如表 1 所示
  • Qwen3 MoE 模型与 Qwen3 Dense 模型共享相同的基础架构,模型架构的关键信息如表 2 所示
    • 遵循 Qwen2.5-MoE (2024) 并实现了细粒度专家分割(fine-grained expert segmentation)(2024)
    • Qwen3 MoE 模型共有 128 个专家,每个 token 激活 8 个专家
    • 与 Qwen2.5-MoE 不同,Qwen3-MoE 设计排除了共享专家
    • Qwen3 采用全局批量负载均衡损失(global-batch load balancing loss)(2025) 以鼓励专家专业化
    • 这些架构和训练创新在下游任务中显著提升了模型性能
  • Qwen3 模型使用 Qwen 的分词器 (2023),它实现了 BBPE(Byte-level Byte-Pair Encoding)(2020; 2020; 2016),词表为 151,669

Pre-training

Pre-training Data

  • 与 Qwen2.5(2024)相比,Qwen3 显著扩大了预训练数据的规模和多样性
    • 作者收集了 36 万亿 token 的数据,覆盖 119 种语言和方言
      • 这些数据包含多个领域的高质量内容,例如代码、STEM(科学、技术、工程和数学)、推理任务、书籍、多语言文本以及合成数据
  • 作者对预训练数据做了如下扩展:
    • First,使用 Qwen2.5-VL 模型(2025)对大量 PDF 类文档进行文本识别,随后通过 Qwen2.5 模型(2024)对识别文本进行优化,从而获得额外的高质量文本 token,总量达到数万亿
    • Second,利用 Qwen2.5(2024)、Qwen2.5-Math(2024)和 Qwen2.5-Coder(2024)模型合成了数万亿不同格式的文本 token,涵盖教材、问答、指令和代码片段等,覆盖数十个领域
    • Third,通过引入更多语言数据进一步扩展了预训练语料库。与 Qwen2.5 相比,支持的语言数量从 29 种大幅增加到 119 种,显著提升了模型的跨语言能力
  • 作者开发了一套多语言数据标注系统,用于提升训练数据的质量和多样性
    • 该系统已应用于大规模预训练数据集,对超过 30 万亿 token 进行了多维度标注,包括教育价值、领域和安全性等
    • 这些细粒度的标注支持更高效的数据过滤和组合
    • 与以往研究(2023;2023;2024)在数据源或领域级别优化数据混合比例不同,Qwen3 通过在小规模代理模型上进行细粒度数据标签的消融实验,实现了实例级别的数据混合优化

Pre-training Stages

  • Qwen3 模型的预训练分为三个阶段:
    • 1)General Stage(S1) :在第一阶段,所有 Qwen3 模型在超过 30 万亿 token 上以 4,096 token 的序列长度进行训练
      • 此阶段模型已完全掌握语言能力和通用世界知识,训练数据覆盖 119 种语言和方言
    • 2)Reasoning Stage(S2) :为了进一步提升推理能力,作者优化了本阶段的预训练语料库,增加了 STEM、代码、推理和合成数据的比例
      • 模型以 4,096 token 的序列长度进一步预训练约 5 万亿高质量 token,并在此阶段加速学习率衰减
    • 3)Long Context Stage(S3) :在最后的预训练阶段,作者收集高质量的长上下文语料库,将 Qwen3 模型的上下文长度扩展到 32,768 token
      • 长上下文语料库中,75% 的文本长度介于 16,384 到 32,768 token 之间,25% 介于 4,096 到 16,384 token 之间
      • 遵循 Qwen2.5(2024)的方法,作者使用 ABF 技术(2023)将 RoPE 的基础频率从 10,000 增加到 1,000,000,同时引入 YARN(2023)和双块注意力(Dual Chunk Attention, DCA)(2024),在推理时实现序列长度容量的四倍提升
  • 与 Qwen2.5(2024)类似,Qwen3 基于上述三个阶段开发了超参数(如学习率 Scheduler 和 Batch Size)的扩展规律
    • 通过大量实验,作者系统研究了模型架构、训练数据、训练阶段与最优训练超参数之间的关系,最终为每个 Dense 或 MoE 模型预测了最优学习率和 Batch Size 策略

Pre-training Evaluation

  • Qwen3 系列的基础语言模型评估重点关注其在通用知识、推理、数学、科学知识、代码和多语言能力方面的表现。评估数据集包括 15 个基准测试:
    • 通用任务(General Tasks) :MMLU(2021a)(5-shot)、MMLU-Pro(2024)(5-shot,CoT)、MMLU-redux(2024)(5-shot)、BBH(2023)(3-shot,CoT)、SuperGPQA(2025)(5-shot,CoT)
    • 数学与 STEM 任务(Math & STEM Tasks) :GPQA(2023)(5-shot,CoT)、GSM8K(2021)(4-shot,CoT)、MATH(2021b)(4-shot,CoT)
    • 代码任务(Coding Tasks) :EvalPlus(2023a)(0-shot)(HumanEval(2021)、MBPP(2021)、Humaneval+、MBPP+ 的平均值)、MultiPL-E(2023)(0-shot)(Python、C++、Java、PHP、TypeScript、C#、Bash、JavaScript)、MBPP-3shot(2021)、CRUX-O of CRUXEval(2024)(1-shot)
    • 多语言任务(Multilingual Tasks) :MGSM(2023)(8-shot,CoT)、MMMLU(OpenAI,2024)(5-shot)、INCLUDE(2024)(5-shot)
  • 在基础模型的基线对比中,将 Qwen3 系列基础模型与 Qwen2.5 基础模型(2024)以及其他领先的开源基础模型进行了比较,包括 DeepSeek-V3 Base(2024a)、Gemma-3(2025)、Llama-3(2024)和 Llama-4(Meta-AI,2025)系列基础模型
    • 所有模型均使用相同的评估流程和广泛采用的评估设置,以确保公平比较
Summary of Evaluation Results
  • 基于整体评估结果,论文中总结了 Qwen3 基础模型的关键结论:
    • (1) 与之前开源的 SOTA Dense 和 MoE 基础模型(如 DeepSeek-V3 Base、Llama-4-Maverick Base 和 Qwen2.5-72B-Base)相比,Qwen3-235B-A22B-Base 在大多数任务中表现更优,且参数量显著更少
    • (2) 对于 Qwen3 MoE 基础模型,实验结果表明:
      • (a) 使用相同的预训练数据,Qwen3 MoE 基础模型仅需 1/5 的激活参数即可达到与 Dense 模型相当的性能;
      • (b) 由于架构改进、训练 token 规模扩大和更先进的训练策略,Qwen3 MoE 基础模型的性能优于 Qwen2.5 MoE 基础模型,且激活参数和总参数量更少;
      • (c) 即使仅使用 Qwen2.5 Dense 基础模型 1/10 的激活参数,Qwen3 MoE 基础模型也能达到相当的性能,显著降低了推理和训练成本
    • (3) Qwen3 Dense 基础模型的整体性能与更高参数规模的 Qwen2.5 基础模型相当
      • 例如,Qwen3-1.7B/4B/8B/14B/32B-Base 分别与 Qwen2.5-3B/7B/14B/32B/72B-Base 性能相当,尤其在 STEM、代码和推理基准测试中,Qwen3 Dense 基础模型的性能甚至超越了更高参数规模的 Qwen2.5 基础模型
  • 注:【此处省略一些评估细节】

Post-training

  • 图 1 展示了 Qwen3 系列模型的后训练流程,该流程围绕两个核心目标设计:
    • (1) 思维控制(Thinking Control) :通过整合“非思维模式(non-thinking mode)”和“思维模式(thinking mode)”,使用户能够灵活选择模型是否进行推理,并通过指定思维过程的 token 预算来控制思考深度
    • (2) 强到弱蒸馏(Strong-to-Weak Distillation) :旨在简化和优化轻量级模型的后训练过程
      • 通过利用大规模模型的知识,显著降低构建小规模模型所需的计算成本和开发工作量

Long-CoT Cold Start

  • 首先构建了一个涵盖数学、代码、逻辑推理和 STEM 问题的综合数据集,每个问题均配有已验证的参考答案或基于代码的测试用例
  • 该数据集用于长链思维(long Chain-of-Thought, long-CoT)训练的冷启动阶段
  • 数据集构建包含两阶段过滤流程:查询过滤(query filtering)和响应过滤(query filtering)
  • 查询过滤阶段:使用 Qwen2.5-72B-Instruct 识别并移除难以验证的查询(例如包含多个子问题或要求生成通用文本的查询),同时排除 Qwen2.5-72B-Instruct 无需 CoT 推理即可正确回答的查询,以确保仅包含需要深度推理的复杂问题
    • 使用 Qwen2.5-72B-Instruct 标注每个查询的领域,以保持数据集的领域平衡
  • 响应过滤阶段:保留验证集后,使用 QwQ-32B 为每个剩余查询生成 \(N\) 个候选响应
    • 若 QwQ-32B 无法生成正确解决方案,则由人工标注者评估响应准确性
    • 对于通过 Pass@\(N\) 的查询,进一步应用严格过滤标准,移除以下类型的响应:
      • (1) 最终答案错误;
      • (2) 包含大量重复内容;
      • (3) 明显猜测而无充分推理;
      • (4) 思维内容与总结不一致;
      • (5) 语言混合不当或风格突变;
      • (6) 疑似与验证集内容过度相似
  • 随后,使用精炼后的数据集子集进行推理模式的初始冷启动训练
    • 此阶段的目标是为模型奠定基础推理模式 ,而非过度强调即时推理性能,从而确保模型潜力不受限制,为后续RL阶段提供更大改进空间
    • 为实现这一目标,建议在此准备阶段尽量减少训练样本数量和训练步数

Reasoning RL

  • 推理强化学习阶段使用的 query-verifier 对需满足以下四个标准:
    • (1) 未在冷启动阶段使用;
    • (2) 冷启动模型可学习;
    • (3) 尽可能具有挑战性;
    • (4) 覆盖广泛的子领域
  • 最终收集了 3995 对 query-verifier ,并采用 GRPO(2024)更新模型参数
    • 实验表明,使用大的 Batch Size 和(每个查询)高 rollout 次数,结合 Off-policy 训练以提高样本效率,对训练过程有益
    • 此外,通过控制模型的熵(entropy)使其稳步增加或保持稳定 ,可以有效平衡探索与利用(exploration and exploitation),这对维持训练稳定性至关重要
      • 注:这里作者说模型的熵是稳步增加的,但大部分论文中给出的训练都是看到熵在下降的,作者应该是否做了一些特定的设计来提升模型在这方面的能力?
    • 结果表明,在单次 RL 训练过程中,无需手动干预超参数,即可实现训练奖励和验证性能的持续提升
      • 例如,Qwen3-235B-A22B 模型的 AIME’24 分数在 170 个 RL 训练步中从 70.1 提升至 85.1

Thinking Mode Fusion

  • 思维模式融合阶段的目标是将“非思维(non-thinking)”能力整合到已具备“思维(thinking)”能力的模型中
  • 这种方法使开发者能够管理和控制推理行为,同时降低部署独立模型以处理思维和非思维任务的成本和复杂性
  • 为实现这一目标,作者对推理强化学习模型进行持续 SFT ,并设计聊天模板以融合两种模式
  • 作者发现能够熟练处理两种模式的模型在不同思维预算下均表现稳定
Construction of SFT data
  • SFT 数据集结合了“thinking”和“non-thinking”数据
  • 为确保 Stage 2 模型的性能不受额外 SFT 影响 :
    • “thinking”数据通过使用 Stage 2 模型对 Stage 1 查询进行拒绝采样(rejection sampling)生成;
    • “non-thinking”数据则精心策划,涵盖编码、数学、指令遵循、多语言任务、创意写作、问答和角色扮演等多样化任务
    • 理解:因为 Stage 2 模型已经是训练好的了,为了增加思维链融合功能,额外的 SFT 是可能会导致模型出现问题的,这里使用 Stage 2 和 Stage 1 模型相关的数据来训练,从而保证 Stage 2 和 Stage 1 模型的原始能力?
  • 此外,作者采用自动生成的检查表评估“non-thinking”数据的响应质量,并特别增加低资源(low-resource)任务上的性能,作者特地增加了翻译任务的比例
Chat Template Design
  • 为更好整合两种模式并支持用户动态切换思维过程,作者设计了 Qwen3 的聊天模板(如表 9 所示)
    • 对于思维模式和非思维模式的样本,作者分别在用户查询或系统消息中引入 /think 和 /no_think 标志,使模型能够根据用户输入选择相应的思维模式
    • 对于非思维模式样本 ,作者在助手响应中保留空的思维块(thinking block)
      • 这一设计确保模型内部格式一致性,并允许开发者通过在聊天模板中拼接空的思维块来阻止模型进行思维行为
    • 默认情况下,模型以思维模式运行,因此作者添加了一些用户查询中不包含 /think 标志的思维模式训练样本
    • 对于更复杂的多轮对话,作者在用户查询中随机插入多个 /think 和 /no_think 标志,模型响应则遵循最后遇到的标志
Thinking Budget
  • 思维模式融合的额外优势在于,一旦模型学会以非思维和思维模式响应,它自然能够处理中间情况(即基于不完整思维生成响应)
  • 这一能力为实施模型思维过程的预算控制奠定了基础
    • 具体而言,当模型的思维长度达到用户定义的阈值时,手动停止思维过程,并插入停止思维指令:“Considering the limited time by the user, I have to give the solution based on the thinking directly now.\n</think>.\n\n”
    • 插入该指令后,模型基于已积累的推理生成最终响应
    • 值得注意的是,此能力并非通过显式训练获得,而是思维模式融合的自然结果

General RL

  • 通用强化学习阶段旨在广泛增强模型在多样化场景中的能力和稳定性
  • 为此,作者建立了一个覆盖 20 多项任务 的复杂奖励系统 ,每项任务均配备定制化评分标准,重点关注以下核心能力:
    • Instruction Following :确保模型准确解释并遵循用户指令,包括内容、格式、长度和结构化输出等要求,生成符合用户期望的响应
    • 格式遵循(Format Following) :除显式指令外,模型需遵循特定格式约定
      • 例如,通过 /think 和 /no_think 标志切换思维模式,并在最终输出中使用指定 token(如 <think> 和 </think>)分隔思维和响应部分
    • 偏好对齐(Preference Alignment) :针对开放式查询,偏好对齐侧重于提升模型的帮助性、参与度和风格,最终提供更自然和令人满意的用户体验
    • 智能体能力(Agent Ability) :训练模型通过指定接口正确调用工具
      • 在 RL rollout 过程中,模型可执行完整的多轮交互周期 ,并接收真实环境执行反馈 ,从而提升其在长视野决策任务中的性能和稳定性
    • 专项场景能力(Abilities for Specialized Scenarios) :在更专业的场景中,作者设计特定任务
      • 例如,在检索增强生成(Retrieval-Augmented Generation, RAG)任务中,引入奖励信号引导模型生成准确且上下文合适的响应 ,从而最小化幻觉风险
  • 为上述任务提供反馈时,作者采用三种不同类型的奖励:
    • (1)基于规则的奖励(Rule-based Reward) :广泛用于推理强化学习阶段,也适用于指令遵循(2024)和格式遵循等通用任务
      • 设计良好的基于规则的奖励可高精度评估模型输出的正确性,避免奖励破解(reward hacking)问题
    • (2)带参考答案的模型奖励(Model-based Reward with Reference Answer) :为每个查询提供参考答案,并提示 Qwen2.5-72B-Instruct 基于参考答案对模型响应评分
      • 该方法无需严格格式化即可灵活处理多样化任务,避免纯规则奖励可能导致的假阴性
    • (3)无参考答案的模型奖励(Model-based Reward without Reference Answer) :利用人类偏好数据训练奖励模型 ,为模型响应分配标量分数
      • 该方法不依赖参考答案,可处理更广泛查询,同时有效提升模型的参与度和帮助性

Strong-to-Weak Distillation

  • 强到弱蒸馏流程专为优化轻量级模型设计,涵盖 5 个 Dense 模型(Qwen3-0.6B、1.7B、4B、8B 和 14B)和 1 个 MoE 模型(Qwen3-30B-A3B)
    • 该方法在提升模型性能的同时,有效赋予其强大的模式切换能力
  • 蒸馏过程分为两个主要阶段:
    • (1) Off-policy 蒸馏(Off-policy Distillation) :在此初始阶段,作者结合教师模型在 /think 和 /no_think 模式下的输出进行响应蒸馏 ,帮助轻量级学生模型发展基础推理能力和思维模式切换能力,为后续 On-policy 训练阶段奠定基础
    • (2) On-policy 蒸馏(On-policy Distillation) :在此阶段,学生模型生成 On-policy 序列进行微调
      • 使用学生模型采样提示后,学生模型以 /think 或 /no_think 模式生成响应,并通过对齐其 logits 与教师模型(Qwen3-32B 或 Qwen3-235B-A22B)以最小化 KL 散度(Kullback-Leibler divergence)进行微调

Post-training Evaluation

  • For 全面评估指令调优模型的质量,采用自动化基准测试思维和非思维模式下的模型性能。这些基准分为以下几类:
    • 通用任务(General Tasks) :使用 MMLU-Redux(2024)、GPQA-Diamond(2023)、C-Eval(2023)和 LiveBench(2024-11-25)(2024)等基准
      • 对于 GPQA-Diamond,每个查询采样 10 次并报告平均准确率
    • 对齐任务(Alignment Tasks) :评估模型与人类偏好的对齐程度
      • 针对指令遵循性能,报告 IFEval(2023)的严格提示准确率;
      • 针对通用主题的人类偏好对齐,使用 Arena-Hard(2024)和 AlignBench v1.1(2023);
      • 针对写作任务,依赖 Creative Writing V3(2024)和 WritingBench(2025)评估模型的熟练度和创造力
    • 数学与文本推理(Math & Text Reasoning) :评估数学和逻辑推理能力,采用高阶数学基准 MATH-500(2023)、AIME’24 和 AIME’25(2025),以及文本推理任务 ZebraLogic(2025)和 AutoLogi(2025)
      • 对于 AIME 问题,每年试题包含 Part I 和 Part II,共 30 题,每题采样 64 次并以平均准确率作为最终分数
    • 智能体与编码(Agent & Coding) :测试模型在编码和智能体任务中的熟练度,使用 BFCL v3(2024)、LiveCodeBench(v5, 2024.10-2025.02)(2024)和 Codeforces Ratings from CodeElo(2025)
      • 对于 BFCL,所有 Qwen3 模型均采用 FC 格式评估,并使用 yarn 将模型部署至 64k 上下文长度以进行多轮评估
        • 部分基线来自 BFCL 排行榜,取 FC 和 Prompt 格式中的较高分;未在排行榜中报告的模型则评估 Prompt 格式
      • 对于 LiveCodeBench,非思维模式使用官方推荐提示,思维模式则调整提示模板以允许模型更自由地思考(移除限制 You will not return anything except for the program)
      • 为评估模型与竞技编程专家的性能差距,使用 CodeForces 计算 Elo 评分,每个问题最多生成八次独立推理尝试
    • 多语言任务(Multilingual Tasks) :评估四种任务:指令遵循、知识、数学和逻辑推理
      • 指令遵循使用 Multi-IF(2024)(覆盖 8 种关键语言);
      • 知识评估包含两类:区域知识通过 INCLUDE(2024)(覆盖 44 种语言)评估,通用知识通过 MMMLU(2024)(覆盖 14 种语言,排除未优化的约鲁巴语);
      • 数学任务采用 MT-AIME2024(2025)(涵盖 55 种语言)和 PolyMath(2025)(涵盖 18 种语言);
      • 逻辑推理使用 MlogiQA(覆盖 10 种语言,源自 2024)
  • 所有 Qwen3 模型采样超参数设置如下:
    • 在思维模式下的采样超参数设置为 temperature\(=0.6\)、top-p\(=0.95\)、top-k\(=20\);
      • 对于 Creative Writing v3 和 WritingBench,应用 presence penalty\(=1.5\) 以鼓励生成更多样化内容
      • 补充:presence penalty 会对已经生成过的词汇的概率值进行削弱
        • 值越大,削弱越厉害,生成的文本更加多样化;
        • 值越小,更容易生成重复的词,但文本会更加连贯
    • 非思维模式的采样超参数为 temperature\(=0.7\)、top-p \(=0.8\)、top-k \(=20\)、presence penalty\(=1.5\)
    • 两种模式的最大输出长度均设为 32,768 token,AIME’24 和 AIME’25 除外(扩展至 38,912 token 以提供充足思维空间)
      Summary of Evaluation Results
  • 从评估结果中,我们总结出最终确定的Qwen3模型的几个关键结论如下:
    • (1)我们的旗舰模型 Qwen3-235B-A22B 在思考模式和非思考模式下均展现出开源模型中的顶尖整体性能,超越了 DeepSeek-R1 和 DeepSeek-V3 等强基线模型
      • Qwen3-235B-A22B 与闭源领先模型(如 OpenAI-o1、Gemini2.5-Pro 和 GPT-4o)相比也具有高度竞争力,彰显了其深厚的推理能力和全面的通用能力
    • (2)我们的旗舰 Dense 模型 Qwen3-32B 在大多数基准测试中优于我们此前最强的推理模型 QwQ-32B,且性能与闭源的OpenAI-o3-mini 相当,表明其推理能力令人瞩目
      • Qwen3-32B 在非思考模式下的表现也极为出色,超越了我们此前的旗舰非推理 Dense 模型 Qwen2.5-72B-Instruct。
    • (3)我们的轻量级模型(包括 Qwen3-30B-A3B、Qwen3-14B 及其他较小的 Dense 模型)与参数规模相近或更大的开源模型相比,性能始终更优,证明了我们“Strong-to-Weak Distillation”方法的成功。
  • 注:【此处省略一些评估细节】

Discussion

The Effectiveness of Thinking Budget

  • 为验证 Qwen3 可通过增加思维预算提升智能水平,在数学、编码和 STEM 领域的四个基准上调整分配的思维预算
  • 如图 2 所示,Qwen3 展现出与分配思维预算相关的可扩展且平滑的性能提升
    • Thinking Budget 越大,效果越好
  • 若进一步将输出长度扩展至 32K 以上,模型性能有望在未来继续提升,作者将此探索留作未来工作

The Effectiveness and Efficiency of On-Policy Distillation

  • 通过比较蒸馏与直接强化学习在相同 Off-policy 蒸馏 8B 检查点后的性能和计算成本(以 GPU 小时计),评估 On-policy 蒸馏的有效性和效率
  • 注:为简化,以下仅关注数学和代码相关查询
  • 表 21 的结果表明,蒸馏在仅需约 1/10 GPU 小时的情况下,性能显著优于强化学习
    • 从教师 logits 蒸馏使学生模型能够扩展其探索空间并增强推理潜力,表现为蒸馏后 AIME’24 和 AIME’25 基准的 pass@64 分数较初始检查点有所提升;
    • 强化学习未带来 pass@64 分数的任何改进。
    • 这些观察凸显了利用更强教师模型指导学生模型学习的优势

The Effects of Thinking Mode Fusion and General RL

  • For 评估后训练中思维模式融合和通用强化学习的有效性,对 Qwen-32B 模型的各个阶段进行评估
  • 除前述数据集外,引入多个内部基准以监控其他能力:
    • CounterFactQA :包含反事实问题,模型需识别问题非事实并避免生成幻觉答案
    • LengthCtrl :包含带长度要求的创意写作任务,最终分数基于生成内容长度与目标长度的差异
    • ThinkFollow :包含随机插入 /think 和 /no_think 标志的多轮对话,测试模型能否根据用户查询正确切换思维模式
    • ToolUse :评估模型在单轮、多轮和多步工具调用过程中的稳定性,分数包括工具调用过程中的意图识别准确率、格式准确率和参数准确率
  • 结果如表 22 所示,可得出以下结论:
    • (1) Stage 3 将非思维模式整合至已通过前两阶段训练具备思维能力的模型中
      • ThinkFollow 基准分数 88.7 表明模型已具备初步模式切换能力,但仍偶有错误
      • Stage 3 还提升了模型在思维模式下的通用和指令遵循能力,CounterFactQA 提升 10.9 分,LengthCtrl 提升 8.0 分
    • (2) Stage 4 进一步强化模型在思维和非思维模式下的通用、指令遵循和智能体能力
      • ThinkFollow 分数提升至 98.9,确保准确模式切换
    • (3) 对于知识、STEM、数学和编码任务 ,思维模式融合和通用强化学习未带来显著提升
      • 相反,对于 AIME’24 和 LiveCodeBench 等挑战性任务,思维模式性能在这两个训练阶段后实际下降
      • 作者推测这种退化是由于模型在更广泛通用任务上训练,可能影响其处理复杂问题的专项能力
      • 在 Qwen3 开发中,作者选择接受这种性能权衡以增强模型的整体通用性

Future Work

  • 在不久的将来,作者的研究将聚焦于以下几个关键方向:
    • (1) 预训练扩展(Scale up pretraining) :作者将继续扩展预训练规模,使用质量更高、内容更多样的数据
    • (2) 架构优化(Improving model architecture) :改进模型架构和训练方法,以实现高效压缩、超长上下文支持等目标
    • (3) RL :增加计算资源投入,重点关注基于环境反馈的智能体强化学习系统,以构建能够处理需要推理时间扩展的复杂任务的智能体

Appendix

A.1 Additional Evaluation Results

A.1.1 Long-Context Ability
  • For 评估长上下文处理能力,在 RULER 基准测试 (2024) 中报告了结果(表 23)
  • 为实现长度外推(length extrapolation),使用 YARN (2023) 并设置缩放因子 \( \text{scaling_factor} = 4 \)
  • 在思考模式下,作者将思考预算(thinking budget)设为 8192 token,以减少对超长输入的冗余推理
  • 结果显示:
    • (1) 在非思考模式下,Qwen3 在长上下文处理任务中优于同规模的 Qwen2.5 模型
    • (2) 在思考模式下,模型性能略有下降
      • 作者推测思考内容对这些检索任务(无需依赖推理)帮助有限 ,甚至可能干扰检索过程
      • 未来版本将重点提升思考模式下的长上下文能力

A.1.2 Multilingual Ability

  • 表 24-35 展示了 Qwen3 系列模型在西班牙语、法语、葡萄牙语、意大利语、阿拉伯语、日语、韩语、印尼语、俄语、越南语、德语和泰语等多种语言中的详细基准得分
    • 这些结果表明,Qwen3 系列模型在所有评估基准中均表现优异,展现了强大的多语言能力
  • 为更广泛评估 Qwen3 的多语言表现,作者使用 Belebele (2023) 基准测试,覆盖 80 种优化语言(表 36 按语系列出)
  • 表 37 展示了 Qwen3 与其他基线模型在 Belebele 基准上的性能对比
  • 结果显示,Qwen3 在同等规模下与 Gemma 模型表现相当,同时显著优于 Qwen2.5

附录:Qwen3-MoE 源码

  • 参考博客:图解 Qwen3 MoE 模型源码
    • 包含一些流程图和源码,比较清晰

NLP——LLM对齐微调-VC-PPO

注:本文包含 AI 辅助创作

  • 参考链接:
    • (VC-PPO)What’s Behind PPO’s Collapse in Long-CoT? Value Optimization Holds the Secret, arXiv 20250303, ByteDance Seed

整体总结

  • 本文提出一种改进的 PPO 方法, VC-PPO(Value-Calibrated PPO)
  • 核心贡献:
    • Pretrained value:开始 RL 前先预训练价值网络
    • Decoupled-GAE:计算 Advantage (for Actor 损失)时和 计算 Target Reward(for Critic 损失)时使用不同的 \(\lambda\)

Motivation

  • LLM 在复杂推理任务(如数学、编程)中表现出色,尤其是通过生成长链思维(Long-CoT)来逐步推导答案
  • OpenAI的o1、DeepSeek-R1等模型都采用了这种“推理时扩展”策略
  • 一个发现:在Long-CoT任务中,PPO经常失效 ,表现为:
    • 模型输出长度迅速下降(注:通常是训练初期即开始大幅下降)
    • 验证集性能大幅退化
    • 无法有效利用长链思维
  • 注:这些现象与 PPO 在传统 RL 任务中的成功形成鲜明对比

问题诊断:PPO 失效的两大原因简单描述

  • 作者通过实验和分析,识别出 PPO 在 Long-CoT 任务中失效的两大根本原因
  • 注:导致模型输出长度迅速下降的直接原因是:前置 Advantage 被高估,详情见本文后面补充的附录

Value/Critic Initialization Bias

  • 在 RLHF 中,常用做法是用训练好的 奖励模型来初始化Value/Critic 模型
    • 注:这种做法则源于奖励模型和价值模型之间的表面相似性,因为两个模型都旨在预测关于响应的标量信息
  • 但奖励模型只在 <EOS> 处提供评分,对前面的 token 没有监督信号,导致它对前置 token 的打分偏低
  • 这种偏差在 GAE 中会被放大,导致前置 token 的 Advantage 被高估,进而促使模型倾向于生成短回答

奖励信号衰减(Reward Signal Decay)

  • 在 GAE 中,当 \(\lambda < 1\) 时,来自 <EOS> 的奖励信号会随传播距离指数衰减
  • 在 Long-CoT 任务中,序列长度可达数千 token,前置 token 几乎接收不到任何奖励信号
  • 这导致值模型无法有效学习,进而影响策略优化
  • 注:传统 RLHF 中常常使用 \(\lambda = 0.95\)
    • 这种做法源于传统的 RL 文献,其中 PPO 已在像 Mujoco 和 Atari 这样的环境中得到广泛测试
    • 在这些环境中,奖励会在轨迹上累积,导致高方差的回报,因此,使用 \(\lambda < 1\) 方差降低是必要的
    • 但这种方式会导致模型收敛缓慢
奖励信号衰减的数学推导
  • 定义:
    • \(V\):值函数
    • \(r_t\):即时奖励
    • \(\lambda\):GAE 平滑因子
  • 在标准 GAE 中,优势估计为:
    $$
    \hat{A}_t = \sum_{l=0}^{T-t-1} \lambda^l \delta_{t+l}, \quad \delta_t = r_t + V(s_{t+1}) - V(s_t)
    $$
  • Critic 目标为回报的估值:
    $$ R \approx V^{\text{target} }(s_t) = V_{old}(s_t) + A^{GAE}_t$$
  • 展开即可得到:
    $$
    V^{\text{target} }(s_t) =
    \begin{cases}
    \sum_{l=0}^{T-t-1} \lambda^l (r_{t+l} + V(s_{t+l+1}) - V(s_{t+l})) + V(s_t), & \lambda < 1 \\
    \sum_{l=0}^{T-t-1} r_{t+l}, & \lambda = 1
    \end{cases}
    $$
    • 上面式子的详细推导见:RL——强化学习中的方差与偏差 的 GAE 部分
    • 当 \(\lambda=1\) 时, Critic 目标即为累积奖励,无偏且稳定
    • 当 \(\lambda<1\) 时, Critic 目标引入了值函数自身的估计,可能不稳定
      • 当长度太大时,可以看到最终的奖励 \(r_T\) 几乎被淹没了,需要逐步透传到 Critic,所以 Critic 收敛性本身也会变慢

模型输出长度迅速下降 的原因详细分析

  • 现象描述:在标准的 PPO 训练中,模型本应生成长链思维(Long-CoT)来逐步推理答案
    • 但在实验中,训练刚开始不久,模型输出的平均长度急剧下降 ,随之而来的是验证集性能的崩溃(如图 1 所示)
  • 根据论文内容,可以得到一个清晰的因果链:
    • 1)初始阶段 :Critic 模型对前置 token 的估计偏低(来自奖励模型初始化)
    • 2)GAE 计算 :这种偏差被 GAE 放大,使前置 token 获得过高的优势值
    • 3)策略更新 :PPO 鼓励高优势值的动作,即鼓励模型多输出前置 token,少输出后置 token
    • 4)行为变化 :模型学会尽早结束生成,因为“早结束”意味着“多输出前置 token、少输出后置 token”
    • 5)恶性循环 :输出变短后,训练数据中的长序列减少,值模型更难学习长序列的价值,进一步强化短输出倾向

直接原因:前置 token 的优势被高估

  • 通过分析优势值(Advantage)与token位置的关联(如图 2 所示)发现:
  • 越靠前的 token,其优势值越高(正偏差越大);
    • 这种偏差导致模型倾向于更早结束生成 ,因为前置 token 被“鼓励”输出,而后置 token 被“惩罚”或忽略
    • 模型学会“尽早收尾”,从而输出长度急剧下降

根本原因之一:值初始化偏差

奖励模型的训练目标
  • 奖励模型只在 token 处给出评分(如正确=1,错误=-1);
  • 它对前面的 token 没有直接的监督信号;
  • 因此,奖励模型对前置 token 的评分偏低(因为信息不完整)
    • 理解:这里不够严谨
      • 其实需要看初始化值和大部分目标值的相对关系,本质应该是可能偏高也可能偏低才对
值模型从奖励模型初始化
  • 在 RLHF 中,常用做法是将训练好的奖励模型作为值模型的初始化;
  • 这导致值模型在初始阶段也对前置token的预期回报估计偏低
偏差在 GAE 中被放大
  • GAE 的优势估计公式为:
    $$
    \hat{A}_t = \sum_{l=0}^{T-t-1} \lambda^l \delta_{t+l}, \quad \delta_t = r_t + V(s_{t+1}) - V(s_t)
    $$
  • 由于前置token的 \(V(s_t)\) 被低估,而 \(V(s_{t+1})\) 相对较高(因为更接近 <EOS>),导致:
    • \(\delta_t\) 为正;
    • 这些正偏差在累加过程中被放大,最终使前置token的优势值显著偏高

根本原因之二:奖励信号衰减

GAE 中的奖励传播机制
  • 当 \(\lambda < 1\) 时(如默认的 0.95),来自 <EOS> 的奖励信号会随传播距离指数衰减:
    $$
    \text{传播到第 } t \text{ 个 token 的奖励信号} = \lambda^{T-t} \cdot r_{}
    $$
Long-CoT 任务的特点
  • 序列长度 \(T\) 可能达到数千token;
  • 前置 token 的 \(T-t\) 很大,\(\lambda^{T-t} \approx 0\);
  • 前置 token 几乎接收不到任何来自最终答案的奖励信号
对 Critic 模型的影响
  • 值模型难以学习到前置 token 的真实价值;
  • 值估计进一步失真,加剧了前置 token 的优势偏差

解决方案:VC-PPO

  • VC-PPO(Value-Calibrated PPO) 同时解决上述两个问题

创新1:Value-Pretraining

  • 目的:解决值初始化偏差,使值模型在训练开始前就与初始策略对齐
  • 方法流程
    • Step 1: 固定策略模型 ,使用初始策略(如SFT后的模型)生成大量 Response
    • Step 2: 使用 Monte-Carlo 回报(即 GAE \(\lambda=1.0\)) 作为值模型的目标,进行离线训练
    • Step 3: 训练至值损失和解释方差(explained variance)收敛
    • Step 4: 将该值模型作为后续 PPO 训练的初始值模型
  • 实验效果
    • 消除了前置 token 的优势偏差
    • 保留了 Long-CoT 的模式,避免输出长度崩溃

创新2:Decoupled-GAE(解耦 GAE)

  • 这是本文的核心创新点,目的是在策略优化和值函数优化中使用不同的 \(\lambda\) 值,以分别满足两者的不同需求
  • 注:使用不同的 \(\lambda\) 值更新时,需要证明其策略梯度还能准确,下文会证明这个事情
背景问题描述
  • 策略优化需要低方差 的梯度估计,因此希望使用较小的 \(\lambda\)(如 0.95);
  • 但值函数优化需要无偏的目标 ,因此希望使用 \(\lambda=1.0\),避免奖励信号衰减;
  • 传统 PPO 中,两者共用同一个 \(\lambda\),无法兼顾
方法流程
  • Step 1: 策略优化使用 \(\lambda_{\text{actor} } < 1.0\)(如 0.95),以降低梯度方差
  • Step 2: 值函数优化使用 \(\lambda_{\text{critic} } = 1.0\),以确保 Critic 目标无偏
  • Step 3: 两者的 GAE 计算独立进行 ,互不干扰
  • Algorithm1:
策略梯度的无偏性证明(待详细推导和理解)
  • 作者进一步证明,即使值函数是用不同 \(\lambda\) 训练的,将其代入策略梯度中仍然无偏:
  • 定义 n-step 回报为:
    $$
    G_{t:t+h} =
    \begin{cases}
    \sum_{l=0}^{h-1} r_{t+l} + \bar{V}(s_{t+h}), & t+h < T \\
    \sum_{l=0}^{T-t-1} r_{t+l}, & t+h = T
    \end{cases}
    $$
  • 则优势可写为:
    $$
    \hat{A}_t = (1-\lambda) \sum_{l=1}^{T-t-1} \lambda^{l-1} G_{t:t+l} + \lambda^{T-t-1} G_{t:T} - \bar{V}(s_t)
    $$
  • 即,具有任意 \(\lambda\) 的策略梯度可以重写如下:
    $$\begin{aligned} \mathbb{E}_t [\nabla_\theta \log \pi_\theta(a_t|s_t) A_t] &= \mathbb{E}_t \left[ \nabla_\theta \log \pi_\theta(a_t|s_t) \sum_{l=0}^{T-t-1} \lambda^l (r_{t+l} + \bar{V}(s_{t+l+1}) - \bar{V}(s_{t+l})) \right] \\ &= \mathbb{E}_t \left[ \nabla_\theta \log \pi_\theta(a_t|s_t) \left( (1-\lambda) \sum_{l=1}^{T-t-1} \lambda^{l-1} G_{t:t+l} + \lambda^{T-t-1} G_{t:T} - \bar{V}(s_t) \right) \right] \\ &= \mathbb{E}_t \left[ \nabla_\theta \log \pi_\theta(a_t|s_t) \left( (1-\lambda) \sum_{l=1}^{T-t-1} \lambda^{l-1} G_{t:t+l} + \lambda^{T-t-1} G_{t:T} \right) \right] \end{aligned} \tag{8}$$
    • 根据公式 8,代入任意价值函数不会给策略梯度引入额外的偏差
    • 鉴于大型语言模型所需的大量时间和计算资源,使用较小的 \(\lambda\) 来加快策略的收敛是可取的
    • 一个候选配置可以是 \(\lambda_{\text{policy}} = 0.95\) 和 \(\lambda_{\text{value}} = 1.0\)
  • 论文中提到:使用任意值函数不会引入额外偏差
    • 问题:这里并不是说明使用 Decoupled-GAE 前后的梯度一致,因为 \(G_{t:t+l}\) 中也包含了 \(\bar{V}(s_{t+l})\)
      • 此时 Actor 更新时最大化的目标(Advantage)本身已经发生了改变,目标变成了 最大化新的 \(\lambda\) 下的 Critic 值
    • 这里仅仅是证明了这 Actor 和 Critic 解耦的 \(\lambda\) 下,也有一个可以学习的目标值(形式上与原始的 策略梯度法/PPO 的结果是一样的)
      • 注:这也就是说形式上本身是不冲突的,但没有说明两者的目标是完全等价的

实验

Setting

  • 主要任务 :AIME、GPQA、Codeforces
  • Base 模型型 :Qwen2.5 32B
  • 冷启动 :使用少量 Long-CoT 格式样本进行 SFT
  • 奖励 :规则驱动的答案匹配(正确=1,错误=-1)
  • Baselines :PPO(\(\lambda=0.95\))和 GRPO(DeepSeek-R1 中使用)

对照 GRPO

  • VC-PPO vs GRPO
    模型 AIME 2024 pass@1 GPQA pass@1 CodeForces pass@1
    GRPO 38.9 49.4 12.6
    VC-PPO 48.8 48.8 12.8
  • VC-PPO 在 AIME 上显著优于 GRPO,达到 Qwen-32B 模型在该任务上的 SOTA

消融实验

  • 移除 Value-Pretraining :AIME pass@1 从 41.9 降至29.4
  • 移除 Decoupled-GAE :AIME pass@1 降至 29.4
  • \(\lambda_{\text{actor} }\) 调优 :\(\lambda=0.99\) 效果最佳,\(\lambda=1.0\) 效果最差

关键 Insight

  • 值模型与策略的对齐至关重要 :尤其是在 Long-CoT 任务中,值模型必须充分理解策略的生成模式,否则会破坏 CoT 结构
  • 值预训练不仅是值热身,更是知识注入 :它帮助模型理解哪些 token 更有价值,是提升性能的关键
  • 值优化对噪声更鲁棒 :值模型可以使用 \(\lambda=1.0\) 的无偏目标,而策略需要 \(\lambda<1.0\) 来降低方差,二者解耦是合理的

附录:证明 score function 的梯度性质

  • 核心思路:
    • 概率和的梯度为 0
  • 证明详情见:Math——KL中得分函数和路径梯度的理解

NLP——技术报告解读-DeepSeek-V3

注:本文包含 AI 辅助创作

  • 参考链接:
    • 原始论文:DeepSeek-V3 Technical Report, arXiv 202412 & 202502, DeepSeek-AI
    • GitHub:github.com/deepseek-ai/DeepSeek-V3

Paper Summary

  • 核心内容总结:
    • DeepSeek-V3 是一个大型 MoE 语言模型(671B-A37B),在 14.8T Token 上进行了训练
    • 除了 DeepSeek-V2 中的 MLA 和 DeepSeekMoE 架构外,还开创性地采用了无辅助损失(auxiliary-loss-free)的负载平衡策略,并设置了 Multi-token 预测(Multi-token prediction)训练目标以获得更强的性能
    • 性能:截止到发布,DeepSeek-V3 是最强的开源模型,并且实现了与领先的闭源模型(如 GPT-4o 和 Claude-3.5-Sonnet)相媲美的性能
    • 最大特点:
      • 性能强大且保持了经济的训练成本,其完整训练(包括预训练、上下文长度扩展和后训练)仅需 2.788M H800 GPU 小时
      • 训练过程非常稳定,在整个训练过程中,论文没有遇到任何不可恢复的损失尖峰或执行任何回滚
  • DeepSeek-V3 采用了:
    • 多头潜在注意力(Multi-head Latent Attention, MLA),from DeepSeek-V2
    • DeepSeekMoE 架构, from DeepSeek-V2
    • DeepSeek-V3 开创了一种无辅助损失的(auxiliary-loss-free)负载均衡策略,并设定了 Multi-token 预测训练目标以获得更强的性能
  • 论文在 14.8T 个多样化和高质量的 Token 上对 DeepSeek-V3 进行了预训练(随后进行了 SFT 和 RL)

Introduction and Discussion

  • LLMs 经历了快速的迭代和演进 (Anthropic, 2024; Google, 2024; OpenAI, 2024a),逐步缩小了通往通用人工智能(Artificial General Intelligence, AGI)的差距(以上都是闭源模型)
  • 开源模型,包括 DeepSeek 系列 (DeepSeek-AI, 2024a, 2024b, 2024c; 2024)、LLaMA 系列 (Al@Meta, 2024a,2023b)、Qwen 系列 (Qwen, 2023, 2024a, 2024b) 和 Mistral 系列 (2023; Mistral, 2024),也取得了显著进展,努力缩小与闭源模型的差距
  • 为了进一步推动开源模型能力的边界,论文扩大了模型规模并推出了 DeepSeek-V3,这是一个大型 MoE 模型,拥有 671B 参数,其中每个 Token 激活 37B 参数
  • 以前瞻性的视角,论文始终致力于实现强大的模型性能和经济高效的成本
    • 在架构方面,DeepSeek-V3 仍然采用 MLA (DeepSeek-AI, 2024c) 以实现高效推理,并采用 DeepSeekMoE (2024) 以实现经济高效的训练
    • 这两种架构已在 DeepSeek-V2 (DeepSeek-AI, 2024c) 中得到验证,证明了它们在保持强大模型性能的同时实现高效训练和推理的能力
    • 除了基本架构之外,论文还实施了两种额外的策略以进一步增强模型能力
      • 1)DeepSeek-V3 开创了一种无辅助损失的负载均衡策略 (2024a),旨在最小化因鼓励负载均衡而对模型性能产生的不利影响
      • 2)DeepSeek-V3 采用了 Multi-token 预测训练目标,论文观察到这可以提升在评估基准上的整体性能
  • 为了实现高效训练,论文支持 FP8 混合精度训练并对训练框架进行了全面的优化
    • 低精度训练已成为一种有前景的高效训练解决方案 (2022; 2019; 2017; 2023b),其发展与硬件能力的进步密切相关 (2024; 2022; 2023a)
    • 论文引入了一个 FP8 混合精度训练框架,并首次在超大规模模型上验证了其有效性
    • 通过对 FP8 计算和存储的支持,论文实现了加速训练和降低 GPU 内存使用
  • 至于训练框架,论文设计了 DualPipe 算法以实现高效的流水线并行(Pipeline Parallelism, PP),该算法具有更少的流水线气泡,并通过计算-通信重叠(Overlap)隐藏了训练过程中的大部分通信
    • 这种重叠确保了随着模型的进一步扩展,只要论文保持恒定的计算-通信比,论文仍然可以在节点间使用细粒度专家(fine-grained experts),同时实现接近零的全交换(all-to-all)通信开销
    • 论文还开发了高效的跨节点全交换通信内核,以充分利用 InfiniBand (IB) 和 NVLink 带宽
    • 论文精心优化了内存占用,使得在不使用昂贵的张量并行(Tensor Parallelism, TP)的情况下训练 DeepSeek-V3 成为可能
  • 结合这些努力,论文实现了高训练效率
  • 在预训练期间,论文在 14.8T 高质量和多样化的 Token 上训练 DeepSeek-V3
    • 预训练过程非常稳定,在整个训练过程中,论文没有遇到任何不可恢复的损失尖峰或不得不回滚的情况
  • 接下来,论文对 DeepSeek-V3 进行了两阶段的上下文长度扩展
    • 在第一阶段,最大上下文长度扩展到 32K
    • 在第二阶段,进一步扩展到 128K
  • 此后,论文进行了Post-training,包括对 DeepSeek-V3 基础模型进行 SFT 和 RL ,以使其与人类偏好对齐并进一步释放其潜力
    • 在后训练阶段,论文从 DeepSeek-R1 系列模型中蒸馏推理能力,同时仔细维护模型准确性和生成长度之间的平衡
  • 论文在全面的基准测试套件上评估了 DeepSeek-V3
    • 综合评估显示 DeepSeek-V3-Base 已成为当前最强的开源基础模型,尤其是在代码和数学领域
    • 其聊天版本也在一系列标准和开放式基准测试中优于其他开源模型,并实现了与领先闭源模型(包括 GPT-4o 和 Claude-3.5-Sonnet)相媲美的性能
  • 最后,论文再次强调 DeepSeek-V3 的经济训练成本,总结在表 1 中,这是通过论文对算法、框架和硬件的优化协同设计实现的
    • 在预训练阶段,在每万亿 Token 上训练 DeepSeek-V3 仅需 180K H800 GPU 小时,即在论文拥有 2048 个 H800 GPU 的集群上需要 3.7 天
    • 因此,论文的预训练阶段在不到两个月内完成,成本为 2664K GPU 小时
    • 加上上下文长度扩展的 119K GPU 小时和后训练的 5K GPU 小时,DeepSeek-V3 的完整训练仅花费 2.788M GPU 小时
    • 假设 H800 GPU 的租赁价格为每小时 2 美元,论文的总训练成本仅为 557.6 万美元
    • 请注意,上述成本仅包括 DeepSeek-V3 的官方训练,不包括先前在架构、算法或数据上的研究和消融实验相关的成本
  • 论文的主要贡献包括:
    • 架构:创新的负载均衡策略和训练目标 (Architecture: Innovative Load Balancing Strategy and Training Objective)
      • 在 DeepSeek-V2 的高效架构基础上,论文开创了一种无辅助损失的负载均衡策略 (auxiliary-loss-free strategy for load balancing),该策略最小化了因鼓励负载均衡而产生的性能下降
      • 论文研究了 Multi-token 预测 (Multi-token Prediction, MTP) 目标,并证明其有益于模型性能。它也可用于推测解码 (speculative decoding) 以加速推理
    • 预训练:追求极致的训练效率 (Pre-Training: Towards Ultimate Training Efficiency)
      • 论文设计了一个 FP8 混合精度训练框架 (FP8 mixed precision training framework),并首次在超大规模模型上验证了 FP8 训练的可行性和有效性
      • 通过算法、框架和硬件的协同设计 (co-design),论文克服了跨节点 MoE 训练中的通信瓶颈,实现了近乎完全的计算-通信重叠 (computation-communication overlap)
        • 这显著提高了论文的训练效率并降低了训练成本,使论文能够在没有额外开销的情况下进一步扩大模型规模
      • 仅以 2.664M H800 GPU 小时的经济成本,论文完成了 DeepSeek-V3 在 14.8T Token 上的预训练,产生了当前最强的开源基础模型
        • 预训练之后的后续训练阶段仅需 0.1M GPU 小时
    • 后训练:来自 DeepSeek-R1 的知识蒸馏 (Post-Training: Knowledge Distillation from DeepSeek-R1)
      • 论文引入了一种创新方法,将推理能力从长思维链 (long Chain-of-Thought, long CoT) 模型,特别是从 DeepSeek R1 系列模型之一,蒸馏到标准大语言模型中,尤其是 DeepSeek-V3
      • 论文的流程巧妙地将 R1 的验证和反思模式融入 DeepSeek-V3,并显著提高了其推理性能
      • 同时,论文也保持了对 DeepSeek-V3 输出风格和长度的控制
    • 核心评估结果总结 (Summary of Core Evaluation Results)
      • 知识 (Knowledge) :
        • (1) 在教育类基准测试如 MMLU、MMLU-Pro 和 GPQA 上,DeepSeek-V3 优于所有其他开源模型,在 MMLU 上达到 88.5,在 MMLU-Pro 上达到 75.9,在 GPQA 上达到 59.1
          • 其性能与领先的闭源模型如 GPT-4o 和 Claude-Sonnet-3.5 相当,缩小了开源模型与闭源模型在该领域的差距
        • (2) 在事实性基准测试方面,DeepSeek-V3 在 SimpleQA 和 Chinese SimpleQA 上均表现出优于其他开源模型的性能
          • 虽然它在英语事实知识 (SimpleQA) 上落后于 GPT-4o 和 Claude-Sonnet-3.5,但在中文事实知识 (Chinese SimpleQA) 上超越了这些模型,突显了其中文事实知识的优势
      • 代码、数学和推理 (Code, Math, and Reasoning) :
        • (1) DeepSeek-V3 在所有非长思维链的开源和闭源模型中,在数学相关基准测试上达到了 SOTA 性能。值得注意的是,它在特定基准测试上(如 MATH-500)甚至超过了 o1-preview,展示了其强大的数学推理能力
        • (2) 在代码相关任务上,DeepSeek-V3 成为代码竞赛基准测试(如 LiveCodeBench)中表现最佳的模型,巩固了其在该领域的领先地位
          • 对于工程相关任务,虽然 DeepSeek-V3 的表现略低于 Claude-Sonnet-3.5,但它仍然以显著优势领先所有其他模型,展示了其在各种技术基准测试上的竞争力
  • 剩余部分组织如下:
    • 详细阐述论文的 DeepSeek-V3 模型架构(第 2 节)
    • 介绍论文的基础设施,包括论文的计算集群、训练框架、对 FP8 训练的支持、推理部署策略以及论文对未来硬件设计的建议(第 3 节)
    • 描述论文的预训练过程,包括训练数据的构建、超参数设置、长上下文扩展技术、相关评估以及一些讨论(第 4 节)
    • 讨论论文在后训练方面的工作,包括 SFT 、 RL 、相应的评估和讨论(第 5 节)
    • 总结讨论 DeepSeek-V3 现有的局限性,并提出未来研究的潜在方向(第 6 节)

Architecture

  • 论文首先介绍 DeepSeek-V3 的基本架构,其特点是采用 MLA (DeepSeek-AI) 实现高效推理,以及采用 DeepSeekMoE (2024) 实现经济高效的训练
  • 然后,论文介绍一种 MTP 训练目标,论文观察到该目标能够提升模型在评估基准上的整体性能
  • 对于其他未明确提及的细节,DeepSeek-V3 遵循 DeepSeek-V2 (DeepSeek-AI) 的设置

Basic Architecture

  • DeepSeek-V3 的基本架构仍然在 Transformer (2017) 框架内
  • 为了高效推理和经济高效的训练,DeepSeek-V3 同样采用了 MLA 和 DeepSeekMoE,这两者已在 DeepSeek-V2 中得到充分验证
  • 与 DeepSeek-V2 相比,一个例外是:
    • 论文额外为 DeepSeekMoE 引入了一种 无辅助损失负载均衡 (auxiliary-loss-free load balancing) 策略 (Wang 等人),以减轻因努力确保负载均衡而导致的模型性能下降
    • 图 2 展示了 DeepSeek-V3 的基本架构,论文将在本节简要回顾 MLA 和 DeepSeekMoE 的细节
Multi-Head Latent Attention
  • 对于注意力机制,DeepSeek-V3 采用 MLA 架构
  • 令 \(d\) 表示嵌入维度,\(n_{h}\) 表示注意力头数,\(d_{h}\) 表示每个头的维度,\(\mathbf{h}_{t}\in\mathbb{R}^{d}\) 表示给定注意力层中第 \(t\) 个 Token 的注意力输入
  • MLA 的核心是对注意力 Key 和 Value 进行低秩联合压缩,以减少推理期间的 Key-Value 缓存 (Key-Value, KV cache):
    $$
    \begin{align}
    \boxed{\mathbf{c}_{t}^{KV} } &= \mathbf{W}^{DKY}\mathbf{h}_{t},\\
    \left[\mathbf{k}_{t,1}^{C};\mathbf{k}_{t,2}^{C};…;\mathbf{k}_{t,n_{h} }^{C}\right] = \mathbf{k}_{t}^{C} &=\mathbf{W}^{UK}\mathbf{c}_{t}^{KV},\\
    \boxed{\mathbf{k}_{t}^{R}} &= \text{RoPE}(\mathbf{W}^{KR}\mathbf{h}_{t}),\\
    \mathbf{k}_{t,i} &= \left[\mathbf{k}_{t,i}^{C};\mathbf{k}_{t}^{R}\right],\\
    [\mathbf{v}_{t,1}^{C};\mathbf{v}_{t,2}^{C};…;\mathbf{v}_{t,n_{h} }^{C}] = \mathbf{v}_{t}^{C} &=\mathbf{W}^{UV}\mathbf{c}_{t}^{KV}
    \end{align}
    $$
    • 其中 \(\mathbf{c}_{t}^{KV}\in\mathbb{R}^{d_{c} }\) 是 Key 和 Value 的压缩潜在向量;
    • \(d_{c}(\ll d_{h}n_{h})\) 表示 KV 压缩维度;
    • \(W^{DKY}\in\mathbb{R}^{d_{c}\times d}\) 表示下投影矩阵;
    • \(W^{UK},W^{UV}\in\mathbb{R}^{d_{h}n_{h}\times d_{c} }\) 分别是 Key 和 Value 的上投影矩阵;
    • \(W^{KR}\in\mathbb{R}^{d_{h}^{R}\times d}\) 是用于生成携带 旋转位置嵌入 (Rotary Positional Embedding, RoPE) (2024) 的解耦 Key 的矩阵;
    • RoPE(\(\cdot\)) 表示应用 RoPE 矩阵的操作;
    • [\(\cdot\);\(\cdot\)] 表示拼接
  • 对于 MLA,在生成过程中只需要缓存蓝色框内的向量(即 \(\mathbf{c}_{t}^{KV}\) 和 \(\mathbf{k}_{t}^{R}\)),这能在保持性能与标准 多头注意力 (Multi-Head Attention, MHA) (2017) 相当的同时,显著减少 KV 缓存
  • 对于注意力 Query ,论文也执行低秩压缩,这可以减少训练期间的激活内存:
    $$
    \begin{align}
    \mathbf{c}_{t}^{Q}&=W^{DQ}\mathbf{h}_{t},\\
    \left[\mathbf{q}_{t,1}^{C};\mathbf{q}_{t,2}^{C};…;\mathbf{q}_{t,n_{h} }^{C}\right]=\mathbf{q}_{t}^{C}&=W^{UQ}\mathbf{c}_{t}^{Q},\\
    \left[\mathbf{q}_{t,1}^{R};\mathbf{q}_{t,2}^{R};…;\mathbf{q}_{t,n_{h} }^{R}\right]=\mathbf{q}_{t}^{R}&=\text{RoPE}(W^{QR}\mathbf{c}_{t}^{Q}),\\
    \mathbf{q}_{t,i}&=\left[\mathbf{q}_{t,i}^{C};\mathbf{q}_{t,i}^{R}\right],
    \end{align}
    $$
    • 其中 \(\mathbf{c}_{t}^{Q}\in\mathbb{R}^{d_{c}^{\prime} }\) 是 Query 的压缩潜在向量;
    • \(d_{c}^{\prime}(\ll d_{h}n_{h})\) 表示 Query 压缩维度;
    • \(W^{DQ}\in\mathbb{R}^{d_{c}^{\prime}\times d}\),\(W^{UQ}\in\mathbb{R}^{d_{h}n_{h}\times d_{c}^{\prime} }\) 分别是 Query 的下投影和上投影矩阵;
    • \(W^{QR}\in\mathbb{R}^{d_{h}^{R}n_{h}\times d_{c}^{\prime} }\) 是用于生成携带 RoPE 的解耦 Query 的矩阵
  • 最终,注意力 Query (\(\mathbf{q}_{t,i}\))、 Key (\(\mathbf{k}_{j,i}\)) 和值 (\(\mathbf{v}_{j,i}^{C}\)) 被组合以产生最终的注意力输出 \(\mathbf{u}_{t}\):
    $$
    \begin{align}
    \mathbf{o}_{t,i}&=\sum_{j=1}^{t}\text{Softmax}_{j}(\frac{\mathbf{q}_{t,i}^{T}\mathbf{k}_{j,i} }{\sqrt{d_{h}+d_{h}^{R} } })\mathbf{v}_{j,i}^{C},\\
    \mathbf{u}_{t}&=W^{O}\left[\mathbf{o}_{t,1};\mathbf{o}_{t,2};…;\mathbf{o}_{t,n_{h} }\right],
    \end{align}
    $$
    • 其中 \(W^{O}\in\mathbb{R}^{d\times d_{h}n_{h} }\) 表示输出投影矩阵
DeepSeekMoE with Auxiliary-Loss-Free Load Balancing
Basic Architecture of DeepSeekMoE
  • 对于 前馈网络 (Feed-Forward Networks, FFNs),DeepSeek-V3 采用 DeepSeekMoE 架构 (2024)
  • 与传统的 MoE 架构(如 CShard (2021))相比,DeepSeekMoE 使用更细粒度的专家,并将一些专家隔离为共享专家
  • 令 \(\mathbf{u}_{t}\) 表示第 \(t\) 个 Token 的 FFN 输入,论文计算 FFN 输出 \(\mathbf{h}_{t}^{\prime}\) 如下:
    $$
    \begin{align}
    \mathbf{h}_{t}^{\prime} &=\mathbf{u}_{t}+\sum_{i=1}^{N_{s} }\text{FFN }_{i}^{(s)}\left(\mathbf{u}_{t}\right)+\sum_{i=1}^{N_{r} }g_{i,t}\text{ FFN}_{i}^{(r)}\left(\mathbf{u}_{t}\right),\\
    g_{i,t} &= \frac{g_{i,t}^{\prime} }{\sum_{j=1}^{N_{r} }g_{j,t}^{\prime} },\\
    g_{i,t}^{\prime} &= \begin{cases}s_{i,t},&s_{i,t}\in\text{Topk}(\{s_{j,t}|1\leqslant j\leqslant N_{r}\},K_{r}),\\ 0,&\text{otherwise},\end{cases} \\
    s_{i,t} &= \text{Sigmoid}\left(\mathbf{u}_{t}^{T}\mathbf{e}_{t}\right),
    \end{align}
    $$
    • FFN\({}_{i}^{(s)}(\cdot)\) 表示第 \(i\) 个共享专家;
      • \(N_{s}\) 表示共享专家数量
    • FFN\({}_{i}^{(r)}(\cdot)\) 表示第 \(i\) 个路由专家;
      • 和 \(N_{r}\) 表示路由专家数量
    • \(K_{r}\) 表示激活的路由专家数量;
    • \(g_{i,t}\) 是第 \(i\) 个专家的门控值;
    • \(s_{i,t}\) 是 Token 到专家的亲和度;
    • \(\mathbf{e}_{t}\) 是第 \(i\) 个路由专家的质心向量;
    • Topk\((\cdot,K)\) 表示包含为第 \(t\) 个 Token 和所有路由专家计算的亲和度分数中 \(K\) 个最高分的集合
  • 与 DeepSeek-V2 略有不同,DeepSeek-V3 使用 sigmoid 函数计算亲和度分数,并在所有选定的亲和度分数之间应用归一化以产生门控值
Auxiliary-Loss-Free Load Balancing
  • 对于 MoE 模型,不平衡的专家负载将导致 路由崩溃 (routing collapse) (2017),并在使用专家并行的情况下降低计算效率
    • 传统的解决方案通常依赖 辅助损失 (auxiliary loss) (2021;) 来避免负载不平衡,但过大的辅助损失会损害模型性能 (Wang 等人)
  • 为了在负载均衡和模型性能之间取得更好的权衡,论文开创了一种 无辅助损失负载均衡 (auxiliary-loss-free load balancing) 策略 (Wang 等人) 来确保负载均衡
    • 论文为每个专家引入一个偏置项 \(b_{i}\),并将其加到相应的亲和度分数 \(s_{i,t}\) 上以确定 top-K 路由:
      $$g^{\prime}_{i,t}=\begin{cases}s_{i,t},&s_{i,t}+b_{i}\in\text{Topk}((s_{j,t}+b_{j}|1\leqslant j\leqslant N_{r}),K_{r}),\\ 0,&\text{otherwise}.\end{cases}$$
    • 特别说明:偏置项仅用于路由
    • 将与 FFN 输出相乘的门控值仍然来自原始亲和度分数 \(s_{i,t}\)
  • 在训练期间,论文持续监控每个训练步骤的整个批次的专家负载
    • 在每个步骤结束时,如果某个专家对应的负载过重,论文将其偏置项减少 \(y\),如果其对应的专家负载不足,则将其偏置项增加 \(y\),其中 \(y\) 是一个称为 偏置更新速度 (bias update speed) 的超参数
    • 通过这种动态调整,DeepSeek-V3 在训练期间保持均衡的专家负载,并且比那些仅通过纯辅助损失来鼓励负载均衡的模型实现了更好的性能
Complementary Sequence-Wise Auxiliary Loss
  • 尽管 DeepSeek-V3 主要依赖无辅助损失策略进行负载均衡,但为了防止任何单个序列内出现极端不平衡,论文也采用了互补的序列级均衡损失:
    $$
    \begin{align}
    \mathcal{L}_{\text{Bal} }&=\alpha\sum_{i=1}^{N_{r} }f_{i}P_{i},\\
    f_{i}&=\frac{N_{r} }{K_{r}T}\sum_{t=1}^{T}\mathbb{I}\left(s_{i,t}\in\text{Topk}(\{s_{j,t}|1\leqslant j\leqslant N_{r}\},K_{r})\right),\\
    s^{\prime}_{i,t}&=\frac{s_{i,t} }{\sum_{j=1}^{N_{r} }s_{j,t} },\\
    P_{i}&=\frac{1}{T}\sum_{t=1}^{T}s^{\prime}_{i,t},
    \end{align}
    $$
    • 平衡因子 \(\alpha\) 是一个超参数,对于 DeepSeek-V3 将被赋予一个极小的值;
    • \(\mathbb{I}(\cdot)\) 表示指示函数;
    • \(T\) 表示序列中的 Token 数
    • 序列级均衡损失鼓励每个序列上的专家负载保持均衡
    • 理解:
      • 每次计算最小化 损失 \(\mathcal{L}_{\text{Bal} }\) 时,都可以看做是一个求解约束优化问题的过程
      • 约束优化问题为:
        $$
        \begin{align}
        \min_{P_i} \quad &\sum_{i=1}^{N_{r} }f_{i}P_{i} \\
        \text{s.t.} &\sum_i P_i = 1
        \end{align}
        $$
        • 求解约束优化问题时,系数 \(f_{i}\) 可以看做是固定值(是每个序列的统计值,不同序列该值不同)
        • 变量是 \(P_{i}\) ,需要满足一定约束
          $$ \sum_i P_i=1 $$
          • 该约束可以通过定义推导得到:
            $$ \sum_j P_i = \sum_i \frac{1}{T}\sum_{t=1}^{T}s^{\prime}_{i,t} = \sum_i \frac{1}{T}\sum_{t=1}^{T} \frac{s_{i,t} }{\sum_{j=1}^{N_{r} }s_{j,t} } = \frac{1}{T}\sum_{t=1}^{T} \sum_i \frac{s_{i,t} }{\sum_{j=1}^{N_{r} }s_{j,t} } = \frac{1}{T}\sum_{t=1}^{T} 1 = \frac{1}{T}T = 1$$
        • 直观上看,最小化 \(\sum_{j=1}^{D+1}f_iP_i\) 的解就是让概率 \(P_i\) 随着 \(f_i\) 变化, \(f_i\) 越小,则 \(P_i\) 应该越大
          • 这样才能才能满足最小化 \(\sum_{j=1}^{D+1}f_iP_i\)
        • 从梯度上看
          $$ \frac{\partial \mathcal{L}_{\text{ LB} }}{\partial P_i} = \alpha f_i $$
          • 对于 \(f_i\) 越大的组,其概率 \(P_i\) 下降的越多
          • 进一步理解:\(P_i\) 下降是通过调整模型 router 参数实现的,这会导致参数更新后下一轮中真实统计值 \(f_i\) 下降,最终会收敛到一个大家的真实分配统计值 \(f_i\) 都差不多相同的地方(这也就实现了所谓的均衡)
Node-Limited Routing
  • 与 DeepSeek-V2 使用的设备受限路由类似,DeepSeek-V3 也使用一种受限路由机制来限制训练期间的通信成本
    • 注:该方法在 DeepSeek-V2 中被称为 Device-Limited Routing
      • 对于 DeepSeek-V2,除了对被路由专家进行简单的 top-K 选择外,还额外确保每个 Token 的目标专家最多分布在 \(M\) 个设备上
      • 具体来说,对于每个 Token
        • 首先筛选出 \(M\) 个设备,这些设备中包含亲和度得分(affinity scores)最高的专家;
        • 随后,在这 \(M\) 个设备的专家中执行 top-K 选择
      • 在实际实验中作者发现,当 \(M \ge 3\) 时,这种设备受限路由能够实现良好的性能,其效果与无限制的 top-K 路由基本持平
  • 简而言之,论文确保每个 Token 最多被发送到 \(M\) 个节点 ,这些节点是根据分布在该节点上的专家的最高 \(\frac{K}{M}\) 个亲和度分数之和来选择的
    • 理解(为什么是选择依据是每个节点最高 \(\frac{K}{M}\) 个亲和度之和?):对于每个 Token,需要分发到共 \(K\) 个专家,在限定只能发送到 \(M\) 个节点的情况下,则每个节点平均需要负责这个 Token 的 \(\frac{K}{M}\) 个专家,所以根据每个节点的最高 \(\frac{K}{M}\) 个亲和度之和来选择最终的 \(M\) 个节点
  • 在此约束下,论文的 MoE 训练框架几乎可以实现完全的计算-通信重叠
    • 理解:因为限定了每个 Token 需要分发的节点数量,这种情况下可以大幅减少通信开销,避免一个 Token 被发送到太多的节点而造成通信开销太大的情况
No Token-Dropping
  • 由于有效的负载均衡策略,DeepSeek-V3 在整个训练过程中保持良好的负载均衡,DeepSeek-V3 在训练期间不丢弃任何 Token
  • 论文还实现了特定的部署策略以确保推理时的负载均衡,因此 DeepSeek-V3 在推理期间也不丢弃 Token

Multi-token Prediction

  • 受 Gloeckle 等人 (2024) 的启发,论文研究并为 DeepSeek-V3 设定了 MTP 目标,该目标将每个位置的预测范围扩展到多个未来 Token
    • 1)MTP 目标使训练信号更加密集,并可能提高数据效率
    • 2)MTP 可能使模型能够预规划其表示,以更好地预测未来 Token
  • 图 3 展示了论文的 MTP 实现
    • 与 Gloeckle 等人 (2024) 使用独立的输出头并行预测 \(D\) 个额外 Token 不同,论文顺序预测额外 Token ,并在每个预测深度保持完整的因果链
  • 注:上图是训练的流程,按照 Teacher Forcing 方式训练的,所以 MTP 头的输入是真实的 Token,在推理时,会使用主网络的输出作为第二个 Token 的输入,以此类推,详情见后文
MTP Modules
  • 具体来说,论文的 MTP 实现使用 \(D\) 个顺序模块来预测 \(D\) 个额外 Token
    • 注:从图3可以看出,并行头只在模型的最后一层(主模型的 Head 层前)上增加,而不是在 Transformer 网络前面的层增加
    • 注:加入的内容是单层的 Transformer 再加一个 Head
  • 第 \(k\) 个 MTP 模块包含一个共享嵌入层 \(\text{Emb}(\cdot)\)、一个共享输出头 \(\text{OutHead}(\cdot)\)、一个 Transformer 块 \(\text{TRM}_{k}(\cdot)\) 和一个投影矩阵 \(M_{k}\in\mathbb{R}^{d\times 2d}\)
  • 对于第 \(i\) 个输入 Token \(t_{i}\),在第 \(k\) 个预测深度(注:这里的预测深度是指往后预测的 Token 数,不是 Transformer 网络层深度)
    • 论文首先将第 \(i\) 个 Token 在第 \((k-1)\) 个深度的表示 \(\mathbf{h}_{i}^{k-1}\in\mathbb{R}^{d}\) 与第 \((i+k)\) 个 Token 的嵌入通过线性投影相结合:
      $$\mathbf{h}_{i}^{ \prime{k} }=M_{k}[\textrm{RMSNorm}(\mathbf{h}_{i}^{ {k}-1});\textrm{RMSNorm}(\textrm{Emb}(t_{i+k}))],$$
    • 其中 \([.;.]\) 表示拼接
    • 特别地,当 \(k=1\) 时,\(\mathbf{h}_{i}^{ {k}-1}\) 指的是主模型给出的表示
    • 特别注意:对于每个 MTP 模块,其嵌入层与主模型共享
    • 组合后的 \(\mathbf{h}_{i}^{ {k} }\) 作为第 \(k\) 个深度的 Transformer 块的输入,以产生当前深度的输出表示 \(\mathbf{h}_{i}^{ {k} }\):
      $$\mathbf{h}_{1:T-k}^{ {k} }=\textrm{TRM}_{k}(\mathbf{h}_{1:T-k}^{ \prime{k} }),$$
    • 其中 \(T\) 表示输入序列长度,\({}_{ {i:j} }\) 表示切片操作(包括左右边界)
    • 最后,以 \(\mathbf{h}_{i}^{ {k} }\) 作为输入,共享输出头将计算第 \(k\) 个额外预测 Token 的概率分布 \(p_{ {i+1+k} }^{ {k} }\in\mathbb{R}^{V}\),其中 \(V\) 是词汇表大小:
      $$p_{ {i+k+1} }^{ {k} }=\textrm{OutHead}(\mathbf{h}_{i}^{ {k} }).$$
  • 输出头 \(\textrm{OutHead}(\cdot)\) 将表示线性映射为 logits,随后应用 \(\textrm{Softmax}(\cdot)\) 函数来计算第 \(k\) 个额外 Token 的预测概率
    • 同样,对于每个 MTP 模块,其输出头与主模型共享
    • 论文保持预测因果链的原则与 EAGLE (Li 等人) 类似,但 EAGLE 主要目标是 推测解码 (speculative decoding) (2023; 2023),而论文利用 MTP 来改进训练
MTP Training Objective
  • 对于每个预测深度,论文计算一个交叉熵损失 \(\mathcal{L}_{\textrm{MTP} }^{ {k} }\):
    $$\mathcal{L}_{\textrm{MTP} }^{ {k} }=\textrm{CrossEntropy}(p_{2+ k:T+1}^{ {k} },t_{2+k:T+1})=\frac{1}{T}\sum_{i=2+k}^{T+1}\log p_ {i}^{ {k} }[t_{i}],$$
    • 其中 \(T\) 表示输入序列长度,\(t_{i}\) 表示第 \(i\) 个位置的真实 Token
    • \(p_{i}^{ {k} }[t_{i}]\) 表示由第 \(k\) 个 MTP 模块给出的 \(t_{i}\) 的相应预测概率
  • 最后,论文计算所有深度上 MTP 损失的平均值,并将其乘以权重因子 \(\lambda\) 以获得总体 MTP 损失 \(\mathcal{L}_{\textrm{MTP} }\),该损失作为 DeepSeek-V3 的额外训练目标:
    $$\mathcal{L}_{\textrm{MTP} }=\frac{\lambda}{D}\sum_{k=1}^{D}\mathcal{L}_{\textrm{ MTP} }^{ {k} }.$$
MTP in Inference
  • 论文的 MTP 策略主要旨在提高主模型的性能 ,因此在推理期间,我们可以直接丢弃 MTP 模块,主模型可以独立且正常地运行
  • 也可以将这些 MTP 模块重新用于推测解码,以进一步改善生成延迟
  • 理解:实际上,后续的其他工作来看,还是提高主模型本身的性能用的多
  • 额外补充:关于 MTP 推理的其他讲解
    • 参考链接:deepseek技术解读(2)-MTP(Multi-token Prediction)的前世今生 - 姜富春的文章 - 知乎
    • 基本思想:
      • 预测阶段(Predict) :通过 K 个头一次生成 K 个 Token 的预测
      • 验证阶段(Verify) :将 K 个 Token 组装成 K 个 <input,label> 对,并行地利用输入 Main Model 作为评估验证,如果输出 label 与 Main Model 一致,则接受该 token
      • 接受阶段(Accept) :最终接受满足 Main Model 的最大长度 tokens 作为输出
    • 但是,从上述 图3 来看,多头预估时,预测 \(t^{\prime}_3\) 的输入包括了 \(t_1\) 的 Transformer 最后一层表征和 \(t_2\) 的 Embedding(即 Teacher Forcing 的形式),所以推理时是无法直接使用的,流程同上述方法一样,但应该使用下图的形式:
  • 特别说明:虽然主头的预测和后面头的预测是串行的,但是实际上,后面的头进需要走一个 Transformer 层,速度是很快的,和动辄几十层的主网络比起来(比如 DeepSeek-V3 是 61 层),算是很快的了(几乎可以认为是并行了)

Infrastructures

Compute Clusters

  • DeepSeek-V3 在一个配备有 2048 个 NVIDIA H800 GPU 的集群上进行训练
  • H800 集群中的每个节点包含 8 个通过节点内的 NVLink 和 NVSwitch 连接的 GPU
  • 在不同节点之间,利用 InfiniBand (IB) 互连来促进通信

Training Framework

  • DeepSeek-V3 的训练由 HAI-LLM 框架支持,这是一个由论文的工程师从头开始精心打造的、高效且轻量级的训练框架
  • DeepSeek-V3 应用了 16 路流水线并行 (Pipeline Parallelism, PP) (2023b)、跨越 8 个节点的 64 路专家并行 (Expert Parallelism, EP) (2021) 和 ZeRO-1 数据并行 (Data Parallelism, DP) (2020)
  • 为了促进 DeepSeek-V3 的高效训练,论文实施了细致的工程优化
    • 首先,论文设计了 DualPipe 算法用于高效的流水线并行
      • 与现有的 PP 方法相比,DualPipe 具有更少的流水线气泡
      • 更重要的是,它在前向和后向过程中重叠了计算和通信阶段,从而解决了跨节点专家并行引入的沉重通信开销的挑战
    • 其次,论文开发了高效的跨节点 All-to-All 通信内核,以充分利用 IB 和 NVLink 的带宽,并节省专用于通信的流式多处理器 (Streaming Multiprocessors, SMs)
    • 最后,论文精心优化了训练期间的内存占用,从而使得论文能够在训练 DeepSeek-V3 时不使用昂贵的张量并行 (Tensor Parallelism, TP)
DualPipe and Computation-Communication Overlap
  • 对于 DeepSeek-V3,跨节点专家并行引入的通信开销导致了大约 1:1 的低效计算-通信比
  • 为了应对这一挑战,论文设计了一种名为 DualPipe 的创新流水线并行算法,该算法不仅通过有效重叠前向和后向计算-通信阶段来加速模型训练,而且还减少了流水线气泡
  • DualPipe 的关键思想是在一对独立的前向和后向块 (chunk) 内重叠计算和通信
    • 论文将每个块划分为四个组件:注意力 (attention)、 All-to-All 分发 (all-to-all dispatch)、MLP 和 All-to-All 合并 (all-to-all combine)
    • 特别地,对于一个后向块,注意力和 MLP 都进一步分为两部分:对输入的梯度 (backward for input) 和对权重的梯度 (backward for weights),类似于 ZeroBubble (2023a) 中的做法
    • 此外,论文还有一个 PP 通信组件
  • 如图 4 所示,对于一对前向和后向块,论文重新排列了这些组件,并手动调整了专用于通信与计算的 GPU SMs 的比例
    • 在这种重叠策略中,我们可以确保 All-to-All 通信和 PP 通信在执行过程中都能被完全隐藏
    • 颜色上看:
      • 绿色(B)表示 backward for input
      • 蓝色(W)表示 backward for weight
      • 橙色(F)表示 forward
    • 通信上看:
      • 绿色(B)表示 backward 的通信
      • 橙色(F)表示 forward 的通信
      • 紫色(PP)表示 PP 的通信
  • 鉴于高效的重叠策略,完整的 DualPipe 调度如图 5 所示
    • 它采用了双向流水线调度,同时从流水线的两端输入微批次 (micro-batches),并且大部分通信可以完全重叠
    • 这种重叠也确保了,随着模型的进一步扩展,只要论文保持恒定的计算-通信比,论文仍然可以在跨节点使用细粒度专家,同时实现接近零的 All-to-All 通信开销
  • 即使在通信负担较轻的更一般情况下,DualPipe 仍然展现出效率优势
    • 在表 2 中,论文总结了不同 PP 方法的流水线气泡和内存使用情况
    • 如表所示,与 ZB1P (2023b) 和 1F1B (2018) 相比,DualPipe 显著减少了流水线气泡,同时仅将峰值激活内存增加了 \(\frac{1}{PP}\) 倍
    • 尽管 DualPipe 需要保留两份模型参数 ,但这并不会显著增加内存消耗 ,因为论文在训练期间使用了较大的 EP 规模
    • 与 Chimera (2021) 相比,DualPipe 仅要求流水线阶段和微批次能被 2 整除,而不要求微批次能被流水线阶段整除
    • 此外,对于 DualPipe,气泡和激活内存都不会随着微批次数量的增加而增加
Efficient Implementation of Cross-Node All-to-All Communication
  • 为了确保 DualPipe 具有足够的计算性能,论文定制了高效的跨节点 All-to-All 通信内核(包括分发和合并),以节省专用于通信的 SMs 数量
    • 这些内核的实现与论文的 MoE 门控算法和集群的网络拓扑结构协同设计
  • 具体来说,在论文的集群中,跨节点 GPU 通过 IB 完全互连,节点内通信通过 NVLink 处理
    • NVLink 提供 160 GB/s 的带宽,大约是 IB (50 GB/s) 的 3.2 倍
    • 为了有效利用 IB 和 NVLink 的不同带宽,论文将每个 Token 限制为最多分发到 4 个节点,从而减少 IB 流量
    • 对于每个 Token ,当做出路由决策时,它将首先通过 IB 传输到其目标节点上具有相同节点内索引的 GPU
    • 一旦到达目标节点,论文将尽力确保它通过 NVLink 瞬时转发到承载其目标专家的特定 GPU,而不会被后续到达的 Token 阻塞
    • 通过这种方式,通过 IB 和 NVLink 的通信完全重叠,每个 Token 可以高效地平均在每个节点选择 3.2 个专家,而不会产生 NVLink 的额外开销
    • 这意味着,尽管 DeepSeek-V3 在实践中仅选择 8 个路由专家,但它可以将此数量最多扩展到 13 个专家(4 个节点 × 3.2 个专家/节点),同时保持相同的通信成本
    • 总体而言,在这种通信策略下,仅需 20 个 SMs 就足以充分利用 IB 和 NVLink 的带宽
  • 详细来说,论文采用了 warp 专业化技术 (2014),并将 20 个 SMs 划分为 10 个通信通道,在分发过程中下面的操作由各自的 warp 处理
    • (1) IB 发送
    • (2) IB 到 NVLink 转发
    • (3) NVLink 接收
  • 分配给每个通信任务的 warp 数量根据所有 SMs 上的实际工作负载动态调整,类似地,在合并过程中下面的步骤也有由动态调整的 warp 处理
    • (1) NVLink 发送
    • (2) NVLink 到 IB 转发和累加
    • (3) IB 接收和累加
  • 此外,分发和合并内核都与计算流重叠,因此论文也考虑了它们对其他 SM 计算内核的影响
    • 具体来说,论文采用了定制的 PTX (Parallel Thread Execution) 指令并自动调整通信块大小,这显著减少了 L2 缓存的使用以及对其他 SMs 的干扰
Extremely Memory Saving with Minimal Overhead
  • 为了减少训练期间的内存占用,论文采用了以下技术
  • RMSNorm 和 MLA 上投影的重计算 (Recomputation of RMSNorm and MLA Up-Projection)
    • 论文在反向传播期间重新计算所有 RMSNorm 操作和 MLA 上投影,从而无需持久存储它们的输出激活
    • 以微小的开销为代价,该策略显著减少了存储激活所需的内存
  • CPU 中的指数移动平均 (Exponential Moving Average in CPU)
    • 在训练期间,论文保留模型参数的指数移动平均 (EMA) 用于在学习率衰减后早期估计模型性能
      • EMA 参数存储在 CPU 内存中,并在每个训练步骤后异步更新
    • 这种方法使论文能够维护 EMA 参数,而不会产生额外的内存或时间开销
  • Multi-token 预测的共享嵌入和输出头 (Shared Embedding and Output Head for Multi-token Prediction)。通过 DualPipe 策略,论文将模型的最浅层(包括嵌入层)和最深层(包括输出头)部署在同一个 PP 排名 (rank) 上。这种安排使得 MTP 模块和主模型之间能够物理共享共享嵌入和输出头的参数和梯度。这种物理共享机制进一步提高了论文的内存效率

FP8 Training

  • 受低精度训练最新进展 (2022; 2023b) 的启发,论文提出了一个利用 FP8 数据格式的细粒度混合精度框架来训练 DeepSeek-V3
  • 虽然低精度训练前景广阔,但它通常受到激活、权重和梯度中异常值 (outliers) 存在的限制 (2024; 2024)
    • 尽管在推理量化方面取得了显著进展 (2022; 2023),但相对较少的研究证明了低精度技术在大规模语言模型预训练中的成功应用 (2024)
  • 为了应对这一挑战并有效扩展 FP8 格式的动态范围,论文引入了一种细粒度的量化策略:
    • 使用 \(1\times N_{c}\) 元素的 tile-wise 分组 (tile-wise grouping) 或 \(N_{c}\times N_{c}\) 元素的块级分组 (block-wise grouping)
      • 注:tile-wise 说明量化维度是按照块做的,不是整个张量统一量化(tile 粒度比张量粒度更细)
    • 相关的反量化开销在论文提高了精度的累加过程下得到了很大程度的缓解,这是实现精确 FP8 通用矩阵乘法 (General Matrix Multiplication, GEMM) 的关键方面
    • 为了进一步减少 MoE 训练中的内存和通信开销,论文以 FP8 格式缓存和分发激活,同时以 BF16 格式存储低精度的优化器状态
    • 论文在两个与 DeepSeek-V2-Lite 和 DeepSeek-V2 规模相似的模型上验证了所提出的 FP8 混合精度框架,训练了大约 1T 个 Token(更多细节见附录 B.1)
  • 与 BF16 基线相比,论文的 FP8 训练模型的相对损失误差始终低于 0.25%,这一水平完全在训练随机性的可接受范围内
Mixed Precision Framework
  • 基于低精度训练中广泛采用的技术 (2019; 2017),论文提出了一个用于 FP8 训练的混合精度框架
  • 在此框架中,大多数计算密集型操作以 FP8 精度进行,而一些关键操作则策略性地保持其原始数据格式,以平衡训练效率和数值稳定性
  • 整体框架如图 6 所示
    • 首先,为了加速模型训练,大多数核心计算内核,即 GEMM 操作,都以 FP8 精度实现
    • 这些 GEMM 操作接受 FP8 张量作为输入,并产生 BF16 或 FP32 的输出。如图 6 所示,与线性算子 (Linear operator) 相关的所有三个 GEMM,即 Fprop(前向传播)、Dgrad(激活反向传播)和 Wgrad(权重反向传播),都在 FP8 中执行
    • 该设计理论上比原始的 BF16 方法提高一倍的计算速度
    • 此外,FP8 的 Wgrad GEMM 允许激活以 FP8 格式存储,用于反向传播。这显著减少了内存消耗
  • 尽管 FP8 格式具有效率优势,但某些算子由于其对低精度计算的敏感性,仍然需要更高的精度
    • 此外,一些低成本算子也可以使用更高的精度,而对整体训练成本的开销可以忽略不计
    • 因此,经过仔细研究,论文为以下组件保留了原始精度(例如 BF16 或 FP32):嵌入模块、输出头、MoE 门控模块、归一化算子和注意力算子
    • 这些有针对性的高精度保留确保了 DeepSeek-V3 的训练动态稳定性
    • 为了进一步保证数值稳定性,论文以更高的精度存储主权重 (master weights)、权重梯度和优化器状态
    • 虽然这些高精度组件会产生一些内存开销,但它们的影响可以通过在论文的分布式训练系统中跨多个 DP 排名进行高效分片来最小化
Improved Precision from Quantization and Multiplication
  • 基于论文的混合精度 FP8 框架,论文引入了若干策略来增强低精度训练的准确性,重点关注量化方法和乘法过程
Fine-Grained Quantization
  • 在低精度训练框架中,由于 FP8 格式的有限动态范围(受限于其减少的指数位),溢出和下溢是常见的挑战
    • 作为标准实践,通过将输入张量的最大绝对值缩放到 FP8 格式的最大可表示值来将输入分布对齐到 FP8 格式的可表示范围 (2017)
  • 这种方法使得低精度训练对激活异常值高度敏感,这会严重降低量化精度
  • 为了解决这个问题,论文提出了一种细粒度量化方法,在更细粒度的级别上应用缩放
  • 如图 7 (a) 所示
    • (1) 对于激活,论文在 1x128 的 tile 基础上(即每个 Token 每 128 个通道)对元素进行分组和缩放;
    • (2) 对于权重,论文在 128x128 的块基础上(即每 128 个输入通道每 128 个输出通道)对元素进行分组和缩放
  • 这种方法通过根据更小的元素组调整缩放比例,确保量化过程能更好地适应异常值
  • 在附录 B.2 中,论文进一步讨论了当论文以与权重量化相同的方式对激活进行块级分组和缩放时出现的训练不稳定性
  • 论文方法中的一个关键修改是引入了沿 GEMM 操作内部维度 (inner dimension) 的每组缩放因子 (per-group scaling factors)
    • 此功能在标准的 FP8 GEMM 中并不直接支持
    • 但结合论文精确的 FP32 累加策略,它可以被高效实现
  • 值得注意的是,论文的细粒度量化策略与微缩放格式 (microscaling formats) 的思想高度一致 (2023a),而 NVIDIA 下一代 GPU(Blackwell 系列)的 Tensor Cores 已宣布支持具有更小量化粒度的微缩放格式 (2022b)
    • 作者希望论文的设计能为未来的工作提供参考,以跟上最新的 GPU 架构
Increasing Accumulation Precision
  • 低精度 GEMM 操作经常遭受下溢问题,其精度在很大程度上依赖于高精度累加,这通常以 FP32 精度执行 (2019; 2017)
    • 但论文观察到在 NVIDIA H800 GPU 上,FP8 GEMM 的累加精度仅限于保留大约 14 位,这显著低于 FP32 的累加精度
    • 当内部维度 K 很大时,这个问题会更加明显 (2023),这在大规模模型训练中增加批大小和模型宽度时是典型情况
    • 以两个随机矩阵的 GEMM 操作为例,其中 \(\textit{K}=4096\),在论文的初步测试中,Tensor Cores 中有限的累加精度导致最大相对误差接近 \(2%\)
  • 尽管存在这些问题,有限的累加精度仍然是一些 FP8 框架中的默认选项 (2022c),严重限制了训练精度
  • 为了解决这个问题,论文采用了提升到 CUDA Cores 以获得更高精度的策略 (2023)
    • 该过程如图 7 (b) 所示
    • 在 Tensor Cores 上执行 MMA(矩阵乘积累加)期间,中间结果使用有限的位宽进行累加
    • 一旦达到 \(N_c\) 个元素的间隔,这些部分结果将被复制到 CUDA Cores 上的 FP32 寄存器中,在那里执行全精度的 FP32 累加
    • 如前所述,论文的细粒度量化沿内部维度 K 应用每组缩放因子
    • 这些缩放因子可以作为反量化过程在 CUDA Cores 上高效地相乘,而只需最小的额外计算成本
  • 值得注意的是,这种修改降低了单个 warpgroup 的 WGMMA (Warpgroup-level Matrix Multiply-Accumulate) 指令发出率
    • 但在 H800 架构上,通常可以同时维持两个 WGMMA:当一个 warpgroup 执行提升操作时,另一个能够执行 MMA 操作
    • 这种设计使得两个操作能够重叠,保持了 Tensor Cores 的高利用率
    • 根据论文的实验,设置 \(N_c\) = 128 个元素,相当于 4 个 WGMMAs,是能够显著提高精度而不引入大量开销的最小累加间隔
Mantissa over Exponents(尾数优先于指数)
  • 与先前工作采用的混合 FP8 格式 (2022c; 2023b;) 相比,后者在 Fprop 中使用 E4M3(4 位指数和 3 位尾数),在 Dgrad 和 Wgrad 中使用 E5M2(5 位指数和 2 位尾数),论文在所有张量上采用 E4M3 格式以获得更高的精度
  • 论文将此方法的可行性归功于论文的细粒度量化策略,即 tile 和块级缩放
  • 通过在更小的元素组上操作,论文的方法有效地在这些分组元素之间共享指数位,从而减轻了有限动态范围的影响
Online Quantization
  • 张量级量化框架 (2022c; 2023b) 中采用了延迟量化 (delayed quantization),它维护先前迭代的最大绝对值历史记录以推断当前值
  • 为了确保准确的缩放因子并简化框架,论文为每个 1x128 激活 tile 或 128x128 权重块在线计算最大绝对值
  • 基于此,论文推导出缩放因子,然后将激活或权重在线量化为 FP8 格式
Low-Precision Storage and Communication
  • 结合论文的 FP8 训练框架,论文通过将缓存的激活和优化器状态压缩成更低精度的格式,进一步减少了内存消耗和通信开销
  • 低精度优化器状态 (Low-Precision Optimizer States)
    • 论文采用 BF16 数据格式而不是 FP32 来跟踪 AdamW (2017) 优化器中的一阶矩和二阶矩,而不会引起可观察到的性能下降
    • 然而,主权重(由优化器存储)和梯度(用于批大小累加)仍然保留在 FP32 中,以确保整个训练过程中的数值稳定性
  • 低精度激活 (Low-Precision Activation)
    • 如图 6 所示,Wgrad 操作以 FP8 精度执行
    • 为了减少内存消耗,一个自然的选择是以 FP8 格式缓存激活,用于线性算子的反向传播。然而,论文对几个算子进行了特殊考虑,以实现低成本的高精度训练:
      • (1) 注意力算子后的线性算子的输入
        • 这些激活也用于注意力算子的反向传播,这使得它对精度敏感
        • 论文为这些激活专门采用了一种定制的 E5M6 数据格式
        • 此外,这些激活在反向传播中将从 1x128 量化 tile 转换为 128x1 tile
        • 为了避免引入额外的量化误差,所有的缩放因子都是 2 的整数幂舍入缩放
      • (2) MoE 中 SwiGLU 算子的输入
        • 为了进一步降低内存成本,论文缓存 SwiGLU 算子的输入,并在反向传播中重新计算其输出
        • 这些激活也使用论文的细粒度量化方法以 FP8 格式存储,在内存效率和计算精度之间取得了平衡
  • 低精度通信 (Low-Precision Communication)
    • 通信带宽是 MoE 模型训练的关键瓶颈
    • 为了缓解这一挑战,论文在 MoE 上投影之前将激活量化为 FP8,然后应用分发组件,这与 MoE 上投影中的 FP8 Fprop 兼容
      • 与注意力算子后的线性算子的输入类似,此激活的缩放因子是 2 的整数幂
      • 类似的策略应用于 MoE 下投影之前的激活梯度
    • 对于前向和后向的合并组件,论文将它们保留在 BF16 中,以在训练管道的关键部分保持训练精度

Inference and Deployment

  • 论文将 DeepSeek-V3 部署在 H800 集群上,其中每个节点内的 GPU 使用 NVLink 互连,集群中的所有 GPU 通过 IB 完全互连
  • 为了同时确保在线服务的服务水平目标 (Service-Level Objective, SLO) 和高吞吐量,论文采用了以下将预填充 (prefilling) 和解码 (decoding) 阶段分离的部署策略
Prefilling
  • 预填充阶段的最小部署单元由 4 个节点(32 个 GPU)组成
  • 注意力部分采用 4 路张量并行 (Tensor Parallelism, TP4) 结合序列并行 (Sequence Parallelism, SP),以及 8 路数据并行 (Data Parallelism, DP8)
  • 其较小的 TP 规模(4)限制了 TP 通信的开销
  • 对于 MoE 部分,论文使用 32 路专家并行 (Expert Parallelism, EP32),这确保了每个专家处理足够大的批大小,从而提高了计算效率
  • 对于 MoE All-to-All 通信,论文使用与训练相同的方法:
    • 首先通过 IB 跨节点传输 Token ,然后通过 NVLink 在节点内 GPU 之间转发
    • 特别地,论文对浅层的稠密 MLP 使用 1 路张量并行以节省 TP 通信
  • 为了实现 MoE 部分中不同专家之间的负载平衡,论文需要确保每个 GPU 处理大致相同数量的 Token
  • 为此,论文引入了冗余专家 (redundant experts) 的部署策略,该策略复制高负载专家并冗余部署它们
    • 高负载专家是基于在线部署期间收集的统计信息检测出来的,并定期调整(例如,每 10 分钟)
    • 在确定了冗余专家集合后,论文根据观察到的负载,仔细地在节点内的 GPU 之间重新安排专家,力求在不增加跨节点 All-to-All 通信开销的情况下,尽可能平衡 GPU 间的负载
    • 对于 DeepSeek-V3 的部署,论文为预填充阶段设置了 32 个冗余专家
    • 对于每个 GPU,除了它原本承载的 8 个专家外,它还将承载一个额外的冗余专家
  • 在预填充阶段,为了提高吞吐量并隐藏 All-to-All 和 TP 通信的开销,论文同时处理两个计算工作量相似的微批次,将一个微批次的注意力和 MoE 与另一个微批次的分发和合并重叠起来
  • 最后,作者正在探索一种专家的动态冗余 (dynamic redundancy) 策略,其中每个 GPU 承载更多专家(例如,16 个专家),但在每次推理步骤中只激活 9 个
    • 在每层的 All-to-All 操作开始之前,论文实时计算全局最优的路由方案
    • 鉴于预填充阶段涉及大量计算,计算此路由方案的开销几乎可以忽略不计
Decoding
  • 在解码期间,论文将共享专家视为路由专家
    • 从这个角度来看,每个 Token 将在路由期间选择 9 个专家,其中共享专家被视为一个总是被选中的高负载专家
  • 解码阶段的最小部署单元由 40 个节点(320 个 GPU)组成
    • 注意力部分采用 TP4 结合 SP,以及 DP80,而 MoE 部分使用 EP320
    • 对于 MoE 部分,每个 GPU 仅承载一个专家,其中 64 个 GPU 负责承载冗余专家和共享专家
  • 分发和合并部分的 All-to-All 通信通过 IB 上的直接点对点传输进行,以实现低延迟
    • 论文还利用 IBSDA (2022a) 技术进一步最小化延迟并提高通信效率
  • 与预填充类似,论文基于在线服务的统计专家负载,以一定的间隔定期确定冗余专家集合
    • 但论文不需要重新安排专家,因为每个 GPU 只承载一个专家
  • 论文也在探索用于解码的动态冗余策略。然而,这需要更仔细地优化计算全局最优路由方案的算法以及与分发内核的融合以减少开销
  • 为了提高吞吐量并隐藏 All-to-All 通信的开销,论文也在探索在解码阶段同时处理两个计算工作量相似的微批次
    • 与预填充不同,注意力在解码阶段消耗的时间比例更大
    • 因此,论文将一个微批次的注意力与另一个微批次的(分发+MoE+合并)重叠起来
    • 在解码阶段,每个专家的批大小相对较小(通常在 256 个 Token 以内),瓶颈是内存访问而非计算
    • 由于 MoE 部分只需要加载一个专家的参数,内存访问开销很小,因此使用较少的 SMs 不会显著影响整体性能
    • 因此,为了避免影响注意力部分的计算速度,我们可以只分配一小部分 SMs 给(分发+MoE+合并)

Suggestions on Hardware Design

  • 基于论文 All-to-All 通信和 FP8 训练方案的实现,论文向 AI 硬件供应商提出以下芯片设计建议
Communication Hardware
  • 在 DeepSeek-V3 中,论文实现了计算和通信之间的重叠 ,以在计算期间隐藏通信延迟
    • 与串行计算和通信相比,这显著降低了对通信带宽的依赖
  • 但当前的通信实现依赖于昂贵的 SMs(例如,论文分配了 H800 GPU 中可用的 132 个 SMs 中的 20 个用于此目的),这将限制计算吞吐量
    • 而且使用 SMs 进行通信会导致显著的效率低下,因为 Tensor Cores 完全未被充分利用
  • 目前,SMs 主要为 All-to-All 通信执行以下任务:
    • 在 IB (InfiniBand) 和 NVLink 域之间转发数据 ,同时聚合来自单个 GPU、目的地为同一节点内多个 GPU 的 IB 流量
    • 在 RDMA 缓冲区(已注册的 GPU 内存区域)和输入/输出缓冲区之间传输数据
    • 执行归约操作以进行 All-to-All 合并
    • 在跨 IB 和 NVLink 域的分块数据传输到多个专家期间,管理细粒度的内存布局
  • 论文期望未来的供应商能够开发出将这些通信任务从宝贵的计算单元 SM 上卸载的硬件,作为 GPU 协处理器或类似 NVIDIA SHARP (2016) 的网络协处理器
    • 此外,为了降低应用程序编程的复杂性,作者希望这种硬件能从计算单元的角度统一 IB(横向扩展)和 NVLink(纵向扩展)网络
    • 通过这种统一的接口,计算单元可以基于简单的原语提交通信请求,轻松地在整个 IB-NVLink 统一域中完成诸如读、写、多播和归约等操作
Compute Hardware
  • Tensor Cores 中更高的 FP8 GEMM 累加精度 (Higher FP8 GEMM Accumulation Precision in Tensor Cores)
    • 在 NVIDIA Hopper 架构当前的 Tensor Core 实现中,FP8 GEMM 受到有限累加精度的困扰
    • 在基于最大指数通过右移对齐 32 个尾数乘积后,Tensor Core 仅使用每个尾数乘积的最高 14 位进行加法,并截断超出此范围的位(加法结果累加到寄存器中也采用 14 位精度)
    • 论文的实现通过将 128 次 FP8×FP8 乘法的加法结果累加到 CUDA core 中具有 FP32 精度的寄存器中,部分缓解了这一限制
    • 尽管这有助于实现成功的 FP8 训练,但这仅仅是由于 Hopper 架构在 FP8 GEMM 累加精度方面的硬件缺陷而做出的妥协
    • 未来的芯片需要采用更高的精度
  • 支持 tile 和块级量化 (Support for Tile- and Block-Wise Quantization)
    • 当前的 GPU 仅支持每张量 (per-tensor) 量化,缺乏对论文 tile 和块级量化等细粒度量化的原生支持
    • 在当前实现中,当达到 \(N_{C}\) 间隔时,部分结果将从 Tensor Cores 复制到 CUDA cores,乘以缩放因子,并添加到 CUDA cores 上的 FP32 寄存器中
    • 尽管结合论文精确的 FP32 累加策略,反量化开销得到了显著缓解,但 Tensor Cores 和 CUDA cores 之间频繁的数据移动仍然限制了计算效率
    • 论文建议未来的芯片通过使 Tensor Cores 能够接收缩放因子并实现具有组缩放的 MMA 来支持细粒度量化
    • 通过这种方式,整个部分和累加和反量化可以直接在 Tensor Cores 内部完成,直到产生最终结果,从而避免频繁的数据移动
  • 支持在线量化 (Support for Online Quantization)
    • 尽管论文的研究证明了在线量化的有效性,但当前的实现难以有效支持它
    • 在现有流程中,论文需要从 HBM(高带宽内存)中读取 128 个 BF16 激活值(先前计算的输出)进行量化,然后量化后的 FP8 值写回 HBM,只是为了再次读取用于 MMA
    • 为了解决这种低效率问题,论文建议未来的芯片将 FP8 转换和 TMA(Tensor Memory Accelerator)访问融合到单个融合操作中,这样量化可以在激活从全局内存传输到共享内存的过程中完成,避免频繁的内存读写
    • 论文还建议支持 warp 级的转换指令以加速,这进一步促进了层归一化和 FP8 转换的更好融合
      • 或者,可以采用近内存计算方法,将计算逻辑放置在 HBM 附近
    • 在这种情况下,BF16 元素在从 HBM 读入 GPU 时可以直接转换为 FP8,将片外内存访问减少大约 50%
  • 支持转置 GEMM 操作 (Support for Transposed GEMM Operations)
    • 当前的架构使得将矩阵转置与 GEMM 操作融合变得很麻烦
    • 在论文的工作流程中,前向传播期间的激活被量化为 1x128 的 FP8 tile 并存储
    • 在后向传播期间,矩阵需要被读出、反量化、转置、重新量化为 128x1 tile ,并存储在 HBM 中
    • 为了减少内存操作,论文建议未来的芯片能够在 MMA 操作之前直接从共享内存中对矩阵进行转置读取,以支持训练和推理中所需的那些精度
    • 结合 FP8 格式转换和 TMA 访问的融合,这一增强将显著简化量化工作流程

Pre-Training

Data Construction

  • 与 DeepSeek-V2 相比,论文通过提高数学和编程样本的比例来优化预训练语料库,同时将多语言覆盖范围扩展到英语和中文之外
  • 论文的数据处理流程经过改进,在保持语料库多样性的同时最大限度地减少了冗余
  • 受 (2024) 的启发,论文实施了文档打包方法(Document Packing Method)以保证数据完整性,但在训练期间并未引入跨样本注意力掩码
  • 最终,DeepSeek-V3 的训练语料库包含 14.8T 个高质量且多样化的 Token(使用论文的分词器)
  • 在 DeepSeekCoder-V2 (2024) 的训练过程中,论文观察到 Fill-in-Middle (FIM) 策略在使模型能够根据上下文线索准确预测中间文本的同时,并不会损害其下一个 Token 预测能力
    • 与 DeepSeekCoder-V2 保持一致,论文也在 DeepSeek-V3 的预训练中纳入了 FIM 策略
    • 具体来说,论文采用 Prefix-Suffix-Middle (PSM, Prefix, Suffix, Middle) 框架来结构化数据,如下所示:
      $$ \text{<|fim_begin|>} f_{\text{pre} } \text{<|fim_hole|>} f_{\text{suff} } \text{<|fim_end|>} f_{\text{middle} } \text{<|eos_token|>} $$
    • 该结构在文档级别应用,作为预打包过程的一部分
    • FIM 策略的应用率为 0.1,与 PSM 框架保持一致
    • 注:Fill-in-Middle(FIM,中间填充)是大语言模型的一种训练目标,核心是让模型根据上下文的 “前缀” 和 “后缀” 信息,预测并补全中间缺失的内容;这种设计旨在增强模型对文本全局逻辑的理解能力,尤其适用于需要双向参考上下文的场景
  • DeepSeek-V3 的分词器采用字节级 BPE (1999),并扩展了 128K Token 的词汇表
    • 论文对分词器的预分词器和训练数据进行了修改,以优化多语言压缩效率
    • 与 DeepSeek-V2 相比,新的预分词器引入了结合标点符号和换行符的 Token
      • 然而,当模型处理没有终止换行符的多行提示(特别是少样本评估提示)时,这种技巧可能会引入 Token 边界偏差 (2023)
      • 为了解决这个问题,论文在训练期间随机拆分一定比例的此类组合 Token ,使模型接触到更广泛的特例,从而减轻这种偏差

Hyper-Parameters

  • 模型超参数 (Model Hyper-Parameters)
    • 论文将 Transformer 层数设置为 61,隐藏维度设置为 7168
    • 所有可学习参数均使用标准差为 0.006 进行随机初始化
    • 在 MLA 中,论文将注意力头数 \(n_{h}\) 设置为 128,每个头的维度 \(d_{h}\) 设置为 128
    • KV 压缩维度 \(d_{c}\) 设置为 512, Query 压缩维度 \(d^{\prime}_{c}\) 设置为 1536
    • 对于解耦的 Query 和 Key ,论文将每个头的维度 \(d^{R}_{h}\) 设置为 64
    • 论文将除前三层之外的所有 FFN 替换为 MoE 层
    • 每个 MoE 层包含 1 个共享专家和 256 个路由专家,其中每个专家的中间隐藏维度为 2048
    • 在路由专家中,每个 Token 将激活 8 个专家,并且确保每个 Token 最多被发送到 4 个节点
    • 多 Token 预测深度 \(D\) 设置为 1 ,即除了精确的下一个 Token 外,每个 Token 还会预测一个额外的 Token
    • 与 DeepSeek-V2 一样,DeepSeek-V3 也在压缩潜在向量之后采用了额外的 RMSNorm 层,并在宽度瓶颈处乘以额外的缩放因子
    • 总结:在此配置下,DeepSeek-V3 总共包含 671B 参数,其中每个 Token 激活 37B 参数
  • 训练超参数 (Training Hyper-Parameters)
    • 采用 AdamW 优化器 (2017),超参数设置为 \(\beta_{1}=0.9\),\(\beta_{2}=0.95\),权重衰减 = 0.1
    • 在预训练期间,论文将最大序列长度设置为 4K,并在 14.8T Token 上对 DeepSeek-V3 进行预训练
    • 学习率调度方面
      • 首先,在前 2K 步期间将其从 \(0\) 线性增加到 \(2.2\times 10^{-4}\)
      • 然后,论文保持 \(2.2\times 10^{-4}\) 的恒定学习率,直到模型消耗完 10T 训练 Token
      • 随后,论文在 4.3T Token 内,按照余弦衰减曲线将学习率逐渐衰减到 \(2.2\times 10^{-5}\)
      • 在最后 500B Token 的训练期间,论文在前 333B Token 中保持 \(2.2\times 10^{-5}\) 的恒定学习率,并在剩余的 167B Token 中切换到另一个恒定学习率 \(7.3\times 10^{-6}\)
    • 梯度裁剪范数设置为 1.0
    • 论文采用批量大小调度策略(batch size scheduling strategy)
      • 在前 469B Token 的训练中,批量大小从 3072 逐渐增加到 15360,然后在剩余训练中保持 15360
    • 论文利用流水线并行将模型的不同层部署在不同的 GPU 上,对于每一层,路由专家将均匀部署在属于 8 个节点的 64 个 GPU 上
      • 问题:这里如何理解?
    • 至于节点限制路由 ,每个 Token 最多被发送到 4 个节点(即 \(M=4\))
    • 对于无辅助损失的负载平衡,论文在前 14.3T Token 中将偏置更新速度 \(\gamma\) 设置为 0.001,在剩余的 500B Token 中设置为 0.0
    • 对于平衡损失,论文将 \(\alpha\) 设置为 0.0001,仅用于避免任何单个序列内的极端不平衡
    • MTP 损失权重 \(\lambda\) 在前 10T Token 中设置为 0.3,在剩余的 4.8T Token 中设置为 0.1

Long Context Extension

  • 论文采用与 DeepSeek-V2 (2024) 类似的方法来使 DeepSeek-V3 具备长上下文能力
  • 在预训练阶段之后,论文应用 YaRN (2023) 进行上下文扩展,并执行两个额外的训练阶段,每个阶段包含 1000 步,以逐步将上下文窗口从 4K 扩展到 32K,然后再扩展到 128K
  • YaRN 配置与 DeepSeek-V2 中使用的配置一致,仅应用于解耦的共享 Key \(\mathbf{k}_{t}^{R}\)
  • 两个阶段的超参数保持相同
    • 尺度 \(s=40\),\(\alpha=1\),\(\beta=32\),缩放因子 \(\sqrt{t}=0.1\ln s+1\)
    • 在第一阶段,序列长度设置为 32K,批量大小为 1920
    • 在第二阶段,序列长度增加到 128K,批量大小减少到 480
  • 两个阶段的学习率均设置为 \(7.3\times 10^{-6}\),与预训练阶段的最终学习率相匹配
  • 通过这种两阶段的扩展训练,DeepSeek-V3 能够处理长达 128K 的输入,同时保持强大的性能
  • 图 8 显示,经过监督微调后,DeepSeek-V3 在 “Needle In A Haystack” (NIAH) 测试中取得了显著性能,在上下文窗口长度高达 128K 的范围内表现出一致的鲁棒性

Evaluations

Evaluation Benchmarks
  • DeepSeek-V3 的基础模型是在英语和中文占多数的多语言语料库上进行预训练的,因此论文在一系列主要以英语和中文为主的基准测试上评估其性能,同时也包括一个多语言基准测试
  • 论文的评估基于集成在论文 HAI-LLM 框架中的内部评估框架
  • 所考虑的基准测试分类并列出如下,其中带下划线的基准测试为中文,带双下划线的基准测试为多语言:
    • 多学科多项选择题 (Multi-subject multiple-choice) 数据集包括 MMLU (2020)、MMLU-Redux (2024)、MMLU-Pro (2024)、MMMLU (2024)、C-Eval (2023) 和 CMMLU (2023)
    • 语言理解和推理 (Language understanding and reasoning) 数据集包括 HellaSwag (2019)、PIQA (2020)、ARC (2018) 和 BigBench Hard (BBH) (2022)
    • 闭卷问答 (Closed-book question answering) 数据集包括 TriviaQA (2017) 和 NaturalQuestions (2019)
    • 阅读理解 (Reading comprehension) 数据集包括 RACE (2017)、DROP (2019)、C3 (2019) 和 CMRC (2019)
    • 指代消解 (Reference disambiguation) 数据集包括 CLUEWSC (2020) 和 WinoGrande (2019)
    • 语言建模 (Language modeling) 数据集包括 Pile (2020)
    • 中文理解与文化 (Chinese understanding and culture) 数据集包括 CCPM (2021)
    • 数学 (Math) 数据集包括 GSM8K (2021)、MATH (2021)、MGSM (2023) 和 CMath (2023)
    • 代码 (Code) 数据集包括 HumanEval (2021)、LiveCodeBench-Base (0801-1101) (2024)、MBPP (2021) 和 CRUXEval (2024)
    • 标准化考试 (Standardized exams) 包括 AGIEval (2023)。注意,AGIEval 包含英语和中文子集
  • 遵循论文之前的工作 (2024, 2024)
    • 对包括 HellaSwag、PIQA、WinoGrande、RACE-Middle、RACE-High、MMLU、MMLU-Redux、MMLU-Pro、MMMLU、ARC-Easy、ARC-Challenge、C-Eval、CMMLU、C3 和 CCPM 在内的数据集采用基于困惑度的评估;
    • 对 TriviaQA、NaturalQuestions、DROP、MATH、GSM8K、MGSM、HumanEval、MBPP、LiveCodeBench-Base、CRUXEval、BBH、AGIEval、CLUEWSC、CMRC 和 CMath 采用基于生成的评估
    • 此外,论文对 Pile-test 执行基于语言建模的评估,并使用 Bits-Per-Byte (BPB) 作为度量标准,以保证使用不同分词器的模型之间的公平比较
      • 理解:Pile-test 是大语言模型评估中常用的标准测试集,源于更庞大的通用文本数据集 The Pile
        • The Pile 由 EleutherAI 构建的大规模开源文本数据集,总规模约 800GB,涵盖 22 个不同来源的文本类型(如学术论文、网页文本、书籍、新闻、代码等),旨在为模型提供多样化、高质量的训练与评估数据,避免单一数据分布导致的 “过拟合评估”
        • Pile-test 是 The Pile 的测试子集,与训练集(Pile-train)严格划分,用于客观衡量模型在通用语言理解与生成任务上的泛化能力,由于其覆盖场景广,模型在 Pile-test 上的表现能更真实反映 “通用能力”,而非仅适配某类特定数据
      • 问题:这里 BPB 是什么含义?
      • 回答:Bits-Per-Byte(字节每比特,简称 BPB)是一种用于消除 “分词器差异” 影响、实现不同模型公平比较的度量标准,其核心是 “归一化模型的预测成本
        • 比如,计算模型的困惑度时,如果按照 Token 计算,可能是不公平的,不同模型的 Token 数量不一样,但是如果按照 BPB 计算,则能保证与 Tokenizer 无关
Evaluation Results
  • 在表 3 中,论文将 DeepSeek-V3 的基础模型与 SOTA 开源基础模型进行了比较,包括 DeepSeek-V2-Base (2024)(论文之前的发布)、Qwen2.5 72B Base (2024) 和 LLaMA-3.1 405B Base (2024)
  • 论文在内部评估框架下评估所有这些模型,并确保它们共享相同的评估设置
  • 请注意,由于过去几个月论文评估框架的变化,DeepSeek-V2-Base 的性能与论文之前报告的结果略有不同
  • 总体而言,DeepSeek-V3-Base 全面超越了 DeepSeek-V2-Base 和 Qwen2.5 72B Base,并在大多数基准测试中超过了 LLaMA-3.1 405B Base,基本上成为最强的开源模型
  • 从更详细的角度看,论文将 DeepSeek-V3-Base 与其他开源基础模型进行了单独比较
    • (1) 与 DeepSeek-V2-Base 相比,由于论文模型架构的改进、模型规模和训练 Token 的扩大以及数据质量的提高,DeepSeek-V3-Base 如预期般取得了显著更好的性能
    • (2) 与 SOTA 中文开源模型 Qwen2.5 72B Base 相比,DeepSeek-V3-Base 仅以一半的激活参数量,也在英语、多语言、代码和数学基准测试上展现出了显著优势,尤其是在中文基准测试上,除了中文多学科多项选择题任务 CMMLU 外,DeepSeek-V3-Base 也显示出比 Qwen2.5 72B 更好的性能
    • (3) 与最大的开源模型 LLaMA-3.1 405B Base(其激活参数量是 DeepSeek-V3-Base 的 11 倍)相比,DeepSeek-V3-Base 在多语言、代码和数学基准测试上也表现出更优的性能
    • 对于英语和中文语言基准测试,DeepSeek-V3-Base 显示出竞争性或更好的性能,尤其在 BBH、MMLU 系列、DROP、C-Eval、CMMLU 和 CCPM 上表现突出
  • 得益于论文高效的架构和全面的工程优化,DeepSeek-V3 实现了极高的训练效率
    • 在论文的训练框架和基础设施下,训练 DeepSeek-V3 每万亿 Token 仅需 180K H800 GPU 小时,这比训练 72B 或 405B 的稠密模型要便宜得多

Discussion

Ablation Studies for Multi-token Prediction
  • 在表 4 中,论文展示了 MTP 策略的消融结果
  • 具体来说,论文在两个不同规模的基线模型上验证了 MTP 策略
    • 在小规模上,论文在 1.33T Token 上训练了一个包含 15.7B 总参数的基线 MoE 模型
    • 在大规模上,论文在 540B Token 上训练了一个包含 228.7B 总参数的基线 MoE 模型
  • 在此基础上,保持训练数据和其他架构不变,论文为它们附加了一个深度为 1 的 MTP 模块,并训练了两个采用 MTP 策略的模型进行比较
  • 注意,在推理期间,论文直接丢弃 MTP 模块,因此比较模型的推理成本完全相同
  • 从表中我们可以观察到,MTP 策略在大多数评估基准上持续提升了模型性能
Ablation Studies for the Auxiliary-Loss-Free Balancing Strategy
  • 在表 5 中,论文展示了无辅助损失平衡策略的消融结果
  • 论文在两个不同规模的基线模型上验证了该策略
    • 在小规模上,论文在 1.33T Token 上训练了一个包含 15.7B 总参数的基线 MoE 模型
    • 在大规模上,论文在 578B Token 上训练了一个包含 228.7B 总参数的基线 MoE 模型
  • 这两个基线模型都纯粹使用辅助损失来鼓励负载平衡,并使用 sigmoid 门控函数和 top-K 亲和度归一化
    • 它们控制辅助损失强度的超参数分别与 DeepSeek-V2-Lite 和 DeepSeek-V2 相同
  • 在这两个基线模型的基础上,保持训练数据和其他架构不变,论文移除了所有辅助损失,并引入了无辅助损失平衡策略进行比较
  • 从表中我们可以观察到,与纯辅助损失方法相比,无辅助损失策略在大多数评估基准上持续实现了更好的模型性能
Batch-Wise Load Balance VS. Sequence-Wise Load Balance
  • 无辅助损失平衡与序列级辅助损失之间的关键区别在于它们的平衡范围:批次级与序列级
    • 与序列级辅助损失相比,批次级平衡施加了更灵活的约束,因为它不强制每个序列在域内平衡
    • 这种灵活性允许专家更好地专精于不同领域
  • 为了验证这一点,论文记录并分析了基于辅助损失的 16B 基线模型和无辅助损失的 16B 模型在 Pile 测试集上不同领域的专家负载
  • 如图 9 所示,论文观察到无辅助损失模型如预期那样表现出更大的专家专精模式(注:也就是说有辅助损失的模型得到的专家负载均衡结果更加平均)
  • 为了进一步研究这种灵活性与模型性能优势之间的相关性,论文额外设计并验证了一种批次级辅助损失,该损失鼓励每个训练批次而不是每个序列上的负载平衡
  • 实验结果表明,当达到相似水平的批次级负载平衡时,批次级辅助损失也可以实现与无辅助损失方法相似的模型性能
  • 具体来说,在论文使用 1B MoE 模型的实验中,验证损失分别为:2.258(使用序列级辅助损失)、2.253(使用无辅助损失方法)和 2.253(使用批次级辅助损失)
  • 论文在 3B MoE 模型上也观察到了类似的结果:使用序列级辅助损失的模型验证损失为 2.085,而使用无辅助损失方法或批次级辅助损失的模型验证损失均为 2.080
  • 此外,尽管批次级负载平衡方法显示出持续的性能优势,但它们在效率方面也面临两个潜在的挑战:
    • (1) 某些序列内或小批次内的负载不平衡
    • (2) 推理期间由领域偏移引起的负载不平衡
  • 第一个挑战通过论文使用大规模专家并行和数据并行的训练框架自然得到解决,这保证了每个微批次的规模足够大
  • 对于第二个挑战,论文也设计并实现了一个具有冗余专家部署的高效推理框架,如第 3.4 节所述,以克服它

Post-Training

Supervised Fine-Tuning

  • 论文精心策划了论文的指令微调数据集,包含了涵盖多个领域的 150 万条实例,每个领域都采用了针对其特定需求而定制的不同数据创建方法
  • 推理数据 (Reasoning Data)
    • 对于推理相关的数据集,包括那些专注于数学、代码竞赛问题和逻辑谜题的,论文通过利用内部的 DeepSeek-R1 模型来生成数据
      • 问题:DeepSeek-R1 的一些流程依赖着 DeepSeek-V3 添加一些 CoT 数据吧,两者之间目前从论文看起来是互相依赖的关系
    • 具体来说,虽然 R1 生成的数据表现出很高的准确性,但它存在一些问题,如过度思考、格式不佳和长度过长
    • 论文的目标是在 R1 生成的高精度推理数据和常规格式的清晰简洁的推理数据之间取得平衡
    • 为了建立论文的方法,论文首先为特定领域(例如代码、数学或通用推理)开发一个专家模型,该模型使用结合了 SFT 和 RL 的训练流程
      • 这个专家模型作为最终模型的数据生成器
    • 训练过程涉及为每个实例生成两种不同类型的 SFT 样本:
      • 第一种将问题与其原始回答配对,格式为 <问题, 原始回答>;
      • 第二种则结合了系统提示、问题以及 R1 的回答,格式为 <系统提示, 问题, R1 回答>
    • 系统提示经过精心设计,包含指导模型产生富含反思和验证机制的回答的指令
      • 在 RL 阶段,模型利用高温采样来生成融合了 R1 生成数据和原始数据模式的回答,即使在没有显式系统提示的情况下也是如此。经过数百个 RL 步骤后,中间的 RL 模型学会了融入 R1 的模式,从而战略性地提升了整体性能
    • 在完成 RL 训练阶段后,论文实施拒绝采样来为最终模型筛选高质量的 SFT 数据,其中专家模型被用作数据源
      • 这种方法确保了最终训练数据保留了 DeepSeek-R1 的优势,同时产生的回答简洁有效
  • 非推理数据 (Non-Reasoning Data)
    • 对于非推理数据,例如创意写作、角色扮演和简单问答,论文使用 DeepSeek-V2.5 来生成回答,并聘请人工标注员来验证数据的准确性和正确性
  • SFT 设置 (SFT Settings)
    • 使用 SFT 数据集对 DeepSeek-V3-Base 进行了两个 epoch 的微调
    • 使用了余弦衰减学习率调度
    • 学习率从 \(5 \times 10^{-6}\) 开始,逐渐降低到 \(1 \times 10^{-6}\)
    • 在训练期间,每个单独的序列由多个样本打包而成
      • 论文采用了样本掩码策略来确保这些样本保持隔离且相互不可见

Reinforcement Learning

Reward Model
  • 论文在 RL 过程中使用了基于规则的奖励模型 (Reward Model, RM) 和基于模型的 RM
  • 基于规则的 RM (Rule-Based RM)
    • 对于可以使用特定规则验证的问题,论文采用基于规则的奖励系统来确定反馈
      • 例如,某些数学问题具有确定性的结果,论文要求模型以指定的格式(例如,在一个框内)提供最终答案,从而允许论文应用规则来验证正确性
      • 类似地,对于 LeetCode 问题,我们可以利用编译器根据测试用例生成反馈
    • 通过在可能的情况下利用基于规则的验证,论文确保了更高水平的可靠性,因为这种方法能够抵抗操纵或利用(manipulation or exploitation)
  • 基于模型的 RM (Model-Based RM)
    • 对于具有自由形式标准答案的问题,论文依赖奖励模型来确定回答是否符合预期的标准答案
    • 相反,对于没有明确标准答案的问题,例如涉及创意写作的问题,奖励模型的任务是基于问题和相应的回答作为输入来提供反馈
    • 该奖励模型是从 DeepSeek-V3 SFT 检查点训练而来的
    • 为了增强其可靠性,论文构建了不仅提供最终奖励,还包含导致该奖励的思维链 (Chain-of-Thought) 的偏好数据
    • 这种方法有助于减轻特定任务中 Reward Hacking 的风险
GRPO (Group Relative Policy Optimization)
  • 与 DeepSeek-V2 (2024c) 类似,论文采用 GRPO(2024),它摒弃了通常与策略模型大小相同的评论家模型 (Critic Model),而是从组分数中估计基线
  • 具体来说,对于每个问题 \(q\),GRPO 从旧策略模型 \(\pi_{\theta_{old} }\) 中采样一组输出 \(\{o_{1}, o_{2}, \cdots, o_{G}\}\),然后通过最大化以下目标来优化策略模型 \(\pi_{\theta}\):
    $$
    \mathcal{J}_{GRPO}(\theta) = \mathbb{E} \left[ q \sim P(Q), \{o_{i}\}_{i=1}^{G} \sim \pi_{\theta_{old} }(O|q) \right] \frac{1}{G} \sum_{i=1}^{G} \left( \min \left( \frac{\pi_{\theta}(o_{i}|q)}{\pi_{\theta_{old} }(o_{i}|q)} A_{i}, \text{clip} \left( \frac{\pi_{\theta}(o_{i}|q)}{\pi_{\theta_{old} }(o_{i}|q)}, 1-\epsilon, 1+\epsilon \right) A_{i} \right) - \beta \mathbb{D}_{KL} \left( \pi_{\theta} || \pi_{ref} \right) \right), \\
    \mathbb{D}_{KL} \left( \pi_{\theta} || \pi_{ref} \right) = \frac{\pi_{ref}(o_{i}|q)}{\pi_{\theta}(o_{i}|q)} - \log \frac{\pi_{ref}(o_{i}|q)}{\pi_{\theta}(o_{i}|q)} - 1,
    $$
    • 其中 \(\epsilon\) 和 \(\beta\) 是超参数;\(\pi_{ref}\) 是参考模型;\(A_{i}\) 是优势 (Advantage),由每个组内输出对应的奖励 \(\{r_{1}, r_{2}, \ldots, r_{G}\}\) 推导得出:
      $$
      A_{i} = \frac{r_{i} - \text{mean}(\{r_{1}, r_{2}, \cdots, r_{G}\})}{\text{std}(\{r_{1}, r_{2}, \cdots, r_{G}\})}.
      $$
  • 论文在 RL 过程中融入了来自不同领域的提示,例如编码、数学、写作、角色扮演和问答
    • 这种方法不仅使模型更符合人类偏好,还提高了在基准测试上的性能,特别是在可用 SFT 数据有限的情况下

Evaluations

Evaluation Settings
  • 评估基准 (Evaluation Benchmarks)
    • 除了用于基础模型测试的基准之外,论文还在 IFEval (2023)、FRAMES (2024)、LongBench v2 (2024)、GPQA (2023)、SimpleQA (OpenAI, 2024c)、C-SimpleQA (2024)、SWE-Bench Verified (OpenAI, 2024d)、Aider、LiveCodeBench (2024)(2024年8月至11月的问题)、Codeforces、中国高中数学奥林匹克 (Chinese National High School Mathematics Olympiad, CNMO 2024) 和美国数学邀请赛 2024 (American Invitational Mathematics Examination 2024, AIME 2024) (MAA, 2024) 上进一步评估了指令模型
  • 对比基线 (Compared Baselines)
    • 论文对论文的聊天模型与几个强大的基线进行了全面评估,包括 DeepSeek-V2-0506、DeepSeek-V2.5-0905、Qwen2.5 72B Instruct、LLaMA-3.1 405B Instruct、Claude-Sonnet-3.5-1022 和 GPT-4o-0513。对于 DeepSeek-V2 模型系列,论文选择了最具代表性的变体进行比较
    • 对于闭源模型,通过它们各自的 API 进行评估
  • 详细评估配置 (Detailed Evaluation Configurations)
    • 对于包括 MMLU、DROP、GPQA 和 SimpleQA 在内的标准基准,论文采用了来自 simple-evals 框架的评估提示
      • 注:simple-evals 是一个轻量级的大语言模型评估框架,主要用于快速验证模型在特定任务上的基础能力,其Evaluation Prompts设计遵循简洁、直接的任务导向原则,通常针对具体任务类型构建标准化提示模板
    • 对于 MMLU-Redux,论文在零样本设置下使用了 Zero-Eval 提示格式 (Lin, 2024)
    • 对于其他数据集,论文遵循其原始的评估协议,使用数据集创建者提供的默认提示
    • 对于代码和数学基准,HumanEval-Mul 数据集总共包含了 8 种主流编程语言(Python、Java、C++、C#、JavaScript、TypeScript、PHP 和 Bash)
      • 使用 CoT 和非 CoT 方法来评估模型在 LiveCodeBench 上的性能,其数据收集自 2024 年 8 月至 11 月
      • Codeforces 数据集使用参赛者百分比来衡量
      • SWE-Bench verified 使用无代理框架 (Agentless Framework) (2024) 进行评估
      • 论文使用 “diff” 格式来评估与 Aider 相关的基准
    • 对于数学评估,AIME 和 CNMO 2024 在温度为 0.7 的情况下进行评估,结果取 16 次运行的平均值,而 MATH-500 则使用贪婪解码
    • 论文允许所有模型为每个基准输出最多 8192 个 Token
Standard Evaluation
  • 表 6 展示了评估结果,表明 DeepSeek-V3 是性能最好的开源模型
  • 此外,它与前沿的闭源模型(如 GPT-4o 和 Claude-3.5-Sonnet)相比也具有竞争力
  • 英文基准 (English Benchmarks)
    • MMLU 是一个广泛认可的基准,旨在评估大语言模型在不同知识领域和任务上的表现
      • DeepSeek-V3 展示了具有竞争力的性能,与顶级模型如 LLaMA-3.1-405B、GPT-4o 和 Claude-Sonnet 3.5 不相上下,同时显著优于 Qwen2.5 72B
      • DeepSeek-V3 在 MMLU-Pro(一个更具挑战性的教育知识基准)上表现出色,紧随 Claude-Sonnet 3.5 之后
      • 在 MMLU-Redux(一个带有修正标签的 MMLU 改进版本)上,DeepSeek-V3 超越了其同行
    • 在 GPQA-Diamond(一个博士级评估测试平台)上,DeepSeek-V3 取得了显著成果,仅次于 Claude 3.5 Sonnet,并以显著优势优于所有其他竞争对手
    • 在长上下文理解基准测试中,如 DROP、LongBench v2 和 FRAMES,DeepSeek-V3 继续展示其作为顶级模型的地位
      • DeepSeek-V3 在 DROP 的 3-shot 设置中取得了令人印象深刻的 91.6 F1 分数,超过了该类别中的所有其他模型
      • 在 FRAMES(一个需要在 100k Token 上下文中进行问答的基准测试)上,DeepSeek-V3 紧随 GPT-4o,同时以显著优势优于所有其他模型
        • 这证明了 DeepSeek-V3 在处理极长上下文任务方面的强大能力
      • DeepSeek-V3 的长上下文能力进一步通过其在 LongBench v2(一个在 DeepSeek V3 发布前几周才发布的数据集)上的最佳表现得到了验证
      • 在事实性知识基准 SimpleQA 上,DeepSeek-V3 落后于 GPT-4o 和 Claude-Sonnet,这主要归因于其设计重点和资源分配
      • DeepSeek-V3 分配了更多的训练 Token 来学习中文知识,导致在 C-SimpleQA 上表现卓越
      • 在指令遵循基准测试中,DeepSeek-V3 显著优于其前身 DeepSeek-V2 系列,突显了其理解和遵守用户定义格式约束能力的提升
  • 代码和数学基准 (Code and Math Benchmarks)
    • 编码对于大语言模型来说是一项具有挑战性且实用的任务,涵盖了以工程为重点的任务(如 SWE-Bench-Verified 和 Aider)以及算法任务(如 HumanEval 和 LiveCodeBench)
    • 在工程任务中,DeepSeek-V3 落后于 Claude-Sonnet-3.5-1022,但显著优于开源模型
      • 开源的 DeepSeek-V3 有望推动编码相关工程任务的进步
    • 通过提供对其强大功能的访问,DeepSeek-V3 可以推动软件工程和算法开发等领域的创新和改进,使开发人员和研究人员能够突破开源模型在编码任务中能力的界限
    • 在算法任务中,DeepSeek-V3 表现出卓越的性能,在 HumanEval-Mul 和 LiveCodeBench 等基准测试中优于所有基线
      • 这一成功归功于其先进的知识蒸馏技术,该技术有效地增强了其在算法任务中的代码生成和问题解决能力
    • 在数学基准测试中,DeepSeek-V3 展示了卓越的性能,显著超过了基线,并为非 o1 类模型设定了新的最先进水平
      • 具体来说,在 AIME、MATH-500 和 CNMO 2024 上,DeepSeek-V3 在绝对分数上比第二好的模型 Qwen2.5 72B 高出约 10%,这对于如此具有挑战性的基准测试来说是一个显著的差距
      • 这种卓越的能力突显了从 DeepSeek-R1 进行蒸馏技术的有效性,该技术已被证明对非 o1 类模型非常有益
  • 中文基准 (Chinese Benchmarks)
    • Qwen 和 DeepSeek 是两个对中文和英文都有强大支持的代表性模型系列
    • 在事实性基准 Chinese SimpleQA 上,DeepSeek-V3 超过了 Qwen2.5-72B 16.4 分,尽管 Qwen2.5 是在包含 18T Token (比 DeepSeek-V3 预训练的 14.8T Token 多 20%)的更大语料库上训练的
    • 在 C-Eval(一个代表性的中文教育知识评估基准)和 CLUEWSC(中文 Winograd 模式挑战赛)上,DeepSeek-V3 和 Qwen2.5-72B 表现出相似的水平,表明这两个模型都为具有挑战性的中文推理和教育任务进行了良好的优化
Open-Ended Evaluation
  • 除了标准基准测试,论文还使用大语言模型作为评判者对论文的模型在开放式生成任务上进行了评估,结果如表 7 所示
  • 论文遵循 AlpacaEval 2.0 (2024) 和 Arena-Hard (2024a) 的原始配置,它们利用 GPT-4-Turbo-1106 作为成对比较的评判者
  • 在 Arena-Hard 上,DeepSeek-V3 相对于基线 GPT-4-0314 取得了超过 86% 的惊人胜率,与 Claude-Sonnet-3.5-1022 等顶级模型表现相当
    • 这凸显了 DeepSeek-V3 的强大能力,尤其是在处理复杂提示(包括编码和调试任务)方面
  • DeepSeek-V3 实现了一个突破性的里程碑,成为第一个在 Arena-Hard 基准测试中超过 85% 的开源模型
    • 这一成就显著缩小了开源模型和闭源模型之间的性能差距,为开源模型在挑战性领域所能达到的水平设定了新标准
  • 类似地,DeepSeek-V3 在 AlpacaEval 2.0 上展示了卓越的性能,优于闭源和开源模型
    • 这证明了其在写作任务和处理直接问答场景方面的出色熟练度
  • 值得注意的是,它以 20% 的显著优势超过了 DeepSeek-V2.5-0905,突显了其在处理简单任务方面的实质性改进,并展示了其进步的有效性
DeepSeek-V3 as a Generative Reward Model
  • 论文将 DeepSeek-V3 的判断能力与 SOTA 模型(即 GPT-4o 和 Claude-3.5)进行了比较
  • 表 8 展示了这些模型在 RewardBench (2024) 中的性能(注:RewardBench 是用来评估 Reward Model 本身性能的)
  • DeepSeek-V3 达到了与最佳版本的 GPT-4o-0806 和 Claude-3.5-Sonnet-1022 相当的水平,同时超越了其他版本
  • 此外,DeepSeek-V3 的判断能力也可以通过投票技术得到增强
  • 因此,论文采用 DeepSeek-V3 并结合投票来为开放式问题提供自我反馈,从而提高对齐过程的有效性和鲁棒性

Discussion

Distillation from DeepSeek-R1
  • 论文基于 DeepSeek-V2.5 对从 DeepSeek-R1 进行蒸馏的贡献进行了消融研究
  • 基线是在短 CoT 数据上训练的,而其对比模型则使用上述专家检查点生成的数据
  • 表 9 展示了蒸馏数据的有效性,在 LiveCodeBench 和 MATH-500 基准测试上均显示出显著的改进
  • 论文的实验揭示了一个有趣的权衡:蒸馏带来了更好的性能,但也显著增加了平均回答长度
  • 为了在模型准确性和计算效率之间保持平衡,论文为 DeepSeek-V3 在蒸馏过程中仔细选择了最优设置
  • 论文的研究表明,从推理模型进行知识蒸馏为后训练优化提供了一个有前景的方向
    • 虽然论文目前的工作侧重于蒸馏数学和编码领域的数据,但这种方法显示出在需要复杂推理的各种任务领域中具有更广泛应用的潜力
    • 在这些特定领域展示的有效性表明,长 CoT 蒸馏对于增强其他认知任务中的模型性能可能很有价值
    • 在不同领域进一步探索这种方法仍然是未来研究的一个重要方向
Self-Rewarding
  • 奖励在强化学习中起着关键作用,引导着优化过程
  • 在通过外部工具易于验证的领域,例如某些编码或数学场景,强化学习表现出卓越的功效
    • 但在更一般的场景中,通过硬编码构建反馈机制是不切实际的
  • 在 DeepSeek-V3 的开发过程中,对于这些更广泛的上下文,论文采用了 Constitutional AI 方法 (2022),利用 DeepSeek-V3 自身的投票评估结果作为反馈源
    • 这种方法产生了显著的对齐效果,显著提升了 DeepSeek-V3 在主观评估中的性能
    • 通过整合额外的 Constitutional 输入,DeepSeek-V3 可以向 Constitutional 方向优化
  • 作者相信,这种将补充信息与大语言模型作为反馈源相结合的范式至关重要
    • 大语言模型作为一个通用的处理器,能够将来自不同场景的非结构化信息转化为奖励,最终促进大语言模型的自我改进
    • 除了自我奖励,论文还致力于发现其他通用和可扩展的奖励方法,以持续提升模型在一般场景中的能力
Multi-token Prediction Evaluation
  • DeepSeek-V3 不仅仅预测下一个单独的 Token ,而是通过 MTP 技术预测接下来的 2 个 Token
  • 结合推测解码 (Speculative Decoding) (2023; 2023) 的框架,它可以显著加速模型的解码速度
  • 一个自然的问题是,额外预测的 Token 的接受率如何
    • 根据论文的评估,在不同生成主题下,第二个 Token 预测的接受率在 85% 到 90% 之间,表现出一致的可靠性
    • 这种高接受率使得 DeepSeek-V3 能够实现显著提高的解码速度,提供 1.8 倍的 TPS(每秒 Token 数)

Limitations, and Future Directions

Limitations

  • 在承认其强大性能和成本效益的同时,论文也认识到 DeepSeek-V3 存在一些局限性,尤其是在部署方面
  • 首先,为了确保高效的推理,DeepSeek-V3 推荐的部署单元相对较大,这可能会给小型团队带来负担
  • 其次,尽管论文为 DeepSeek-V3 设计的部署策略已经实现了端到端生成速度超过 DeepSeek-V2 的两倍,但仍有进一步提升的潜力
  • 幸运的是,随着更先进硬件的发展,这些局限性有望得到自然解决

Future Directions

  • DeepSeek 始终坚持具有长期主义(longtermism)的开源模型路线,旨在稳步接近通用人工智能(Artificial General Intelligence, AGI)的终极目标
  • 未来,论文计划在以下几个方向进行战略性投入和研究:
    • DeepSeek 将持续研究和改进论文的模型架构,旨在进一步提高训练和推理效率,努力实现对无限上下文长度的高效支持
      • 此外,DeepSeek 将尝试突破 Transformer 的架构限制,从而推动其建模能力的边界
    • DeepSeek 将持续迭代训练数据的数量和质量,并探索纳入额外的训练信号源,旨在推动数据在更全面维度上的扩展
    • DeepSeek 将持续探索和迭代模型的深度思考能力,旨在通过扩展其推理长度和深度来增强其智能和问题解决能力
    • DeepSeek 将探索更全面、多维度的模型评估方法,以防止在研究过程中倾向于优化固定的基准测试集,这可能造成对模型能力的误导性印象并影响论文的基础评估

附录 B: Ablation Studies for Low-Precision Training

  • 图 10:BF16 与 FP8 训练的损失曲线比较(结果使用系数为 0.9 的指数移动平均(Exponential Moving Average, EMA)进行了平滑处理)

B.1: FP8 v.s. BF16 Training

  • 论文在两个不同规模的基线模型上验证了论文的 FP8 混合精度框架,并与 BF16 训练进行了比较
    • 在小规模上,论文训练了一个总参数量约为 16B 的 MoE 基线模型,使用了 1.33T token
    • 在大规模上,论文训练了一个总参数量约为 230B 的 MoE 基线模型,使用了约 0.9T token
  • 论文在图 10 中展示了训练曲线,并证明了通过论文的高精度累加和细粒度量化策略,相对误差保持在 0.25% 以下

B.2:Discussion About Block-Wise Quantization(分块量化)

  • 尽管论文的切片式(tile-wise)细粒度量化有效缓解了特征异常值(feature outliers)引入的误差,但它需要对激活量化进行不同的分组,即在正向传播中使用 1x128 的分组,在反向传播中则需要 128x1 的分组
    • 激活梯度也需要类似的处理过程
  • 一个直接的策略是像论文量化模型权重那样,对每 128x128 个元素应用分块(block-wise)量化
    • 这样,反向传播只需要进行转置操作
  • 论文进行了一项实验,将与 Dgrad 相关的所有张量都在分块基础上进行量化
    • 结果显示,计算激活梯度并以链式方式反向传播到浅层的 Dgrad 操作对精度高度敏感
  • 论文在总参数量约为 16B、训练了约 300B Token 的 MoE 模型上,激活梯度的分块量化会导致模型发散
    • 论文假设这种敏感性源于激活梯度在 Token 之间高度不平衡,导致了与 Token 相关的异常值 (2023)
    • 这些异常值无法通过分块量化方法有效管理

附录 C:16B 基于辅助损失和无辅助损失模型的专家专业化模式 (Expert Specialization Patterns of the 16B Aux-Loss-Based and Aux-Loss-Free Models)

  • 本节记录了 16B 基于辅助损失的基线模型和无辅助损失模型在 Pile 测试集上的专家负载
  • 如图 11 所示,无辅助损失模型在所有层中都倾向于表现出更强的专家专业化程度(Expert Specialization)
    • 问题:如何理解这里的 专家专业化程度(Expert Specialization)?
    • 理解:是指某些任务上,某类专家被激活的更多,而在另外的任务上,其他专家被激活的更多,专家体现出一定的专业化倾向(注:这不是我们想要的,因为会导致模型拟合能力下降,且单个序列上不利于 EP 负载均衡)
  • 图 11:无辅助损失模型和基于辅助损失的模型在 Pile 测试集的三个领域上的专家负载
    • 无辅助损失模型 比 基于辅助损失模型 表现出 更强的专家专业化模式
    • 相对专家负载(Relative Expert Load)表示实际专家负载与理论平衡专家负载之间的比率

RS——生成式推荐

  • 参考链接:
    • (TIGER)Recommender Systems with Generative Retrieval, NeurIPS 2023, Google: 一篇比较早,也比较基础的工作
    • OneRec: Unifying Retrieve and Rank with Generative Recommender and Preference Alignment, 202502, KuaiShou
    • (COBRA)Sparse Meets Dense: Unified Generative Recommendations with Cascaded Sparse-Dense Representations, 202503, Baidu
    • (RARE)Real-time Ad retrieval via LLM-generative Commercial Intention for Sponsored Search Advertising, 202504, Tencent
      • 相关博客:腾讯搜索广告生成式检索
    • 一文汇总:LLM应用到推荐系统的各类玩法总结
    • Slow Thinking for Sequential Recommendation, 2025, RUC
      • 相关博客:STREAM-Rec: 推荐系统实现慢思考推理
    • LEARN: Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application, AAAI 2025, Kuaishou
      • 相关博客:AAAI’25 | 快手LEARN:使用LLM做特征增强用于电商广告推荐
    • Actions Speak Louder than Words: Trillion-Parameter Sequential Transducers for Generative Recommendations
    • HLLM: Enhancing Sequential Recommendations via Hierarchical Large Language Models for Item and User Modeling, 202409, ByteDance
    • Unlocking Scaling Law in Industrial Recommendation Systems with a Three-step Paradigm based Large User Model, 202502, Alibaba

整体说明

  • 传统深度学习推荐模型(Deep Learning Recommendation Models,DLRMs)范式主要是“Retrieval-Ranking”模式
  • 目前大模型在推荐领域的实践大致分为三类:
    • 第一类:保留 DLRMs 范式,仅利用通用的 LLM 做知识增强,或从领域数据中提取表征信息等
    • 第二类:仍保留 DLRMs 范式,部分重构 Retrieval 阶段或者 Ranking 阶段(或者在 Retrieval 阶段增加一路生成式召回通道)
    • 第二类:直接修改 DLRMs 范式,将输入和输出都重新构造为 LLM 模式,直接利用重构后的领域数据做预训练和微调

NLP——EfficientAttention-Survey(THU-2025)

注:本文包含 AI 辅助创作

  • 参考链接:
    • 原始论文:(Attention Survey of THU 2025)Efficient Attention Mechanisms for Large Language Models: A Survey, THU, 20250807
      • 有豆包基金的支持

Paper Summary

  • 整体总结:
    • 本文是一篇高效 Attention 的 Survey
    • 整体涉及到了 Linear Attention 和 Sparse Attention
  • 问题提出:
    • Transformer-based 架构已成为 LLM 的主流 backbone
    • 自注意力机制存在的二次时间和内存复杂度,是实现高效长上下文建模的根本障碍
  • 当前解法:
    • 为解决这一限制,近期研究引入了两大类高效注意力机制
    • 机制一:Linear Attention 方法:
      • 通过核近似、循环公式或快速权重动态来实现线性复杂度,从而以更低计算开销实现可扩展推理
    • 机制二:稀疏注意力 (Sparse Attention) 技术:
      • 基于固定模式、分块路由或聚类策略,将注意力计算限制在选定的 Token 子集上,在保持上下文覆盖的同时提升效率
  • 本综述主要工作如下:
    • 第一:对上述机制的发展进行了系统而全面的概述,结合了算法创新和硬件
    • 第二:分析了高效注意力在大规模预训练语言模型中的整合方式
      • 包括完全基于高效注意力构建的架构,以及结合局部和全局组件的混合设计

综述引言和一些讨论

  • Transformer-based 架构 (2017) 已成为现代 LLM 事实上的 backbone 选择
    • 标准的自注意力机制仍然是一个显著的计算瓶颈,其时间和内存复杂度相对于输入序列长度呈二次方增长
    • 这一限制对 LLM 在处理日益增长的长上下文时,同时保持高性能和高效率,提出了巨大挑战
  • 为解决此问题,出现了两个主要方向来降低 softmax 注意力 (softmax Attention) 的时间和空间复杂度
    • 第一种机制是Linear Attention (2020; 2020; 2021; 2021; 2023; 2024):
      • 通过将 softmax 注意力重新参数化或近似为线性操作来降低注意力复杂度
    • 第二种候选方案是稀疏注意力 (Sparse Attention) (2019; 2021; 2021; 2022; 2024):
      • 基于固定或动态的稀疏模式,将注意力计算限制在完整键空间的某个子集上
    • 虽然这两种方法都旨在提高效率,但它们在公式、设计选择和硬件影响方面存在显著差异
  • 本综述全面回顾了高效注意力 (Efficient Attention) 机制的最新进展,同时关注算法原理和系统级实现
    • 在此基础上,论文还研究了采用这些高效注意力的预训练 LLM
  • 论文将线性注意力方法分为三大范式
    • 范式一:核化线性注意力 (kernelized linear attention):
      • 通过特征空间内的内积来近似 softmax 核,借助随机特征映射 (2020; 2021) 或固定正映射 (2020) 实现线性复杂度
    • 范式二:带有遗忘机制 (forgetting mechanism) 的循环线性注意力 (recurrent linear attention):
      • 引入了位置感知的循环,通过数据无关 (2021) 或数据相关 (2023; 2023) 的衰减机制来控制过去信息随时间衰减的方式,从而实现对长序列的建模
    • 范式三:基于快速权重 (fast-weight) 和元学习 (meta-learning) 的公式:
      • 将线性注意力重新解释为在线优化的记忆更新过程,其中如 DeltaNet (2021; 2024) 和 TTT (2024) 等模型将快速学习动态直接整合到状态演化中
  • 作者还探讨了线性注意力在硬件友好的表示形式(包括并行、循环和分块形式)重点分析了它们在计算复杂度、内存占用以及与训练或推理工作流兼容性方面的权衡
  • 论文将稀疏注意力分为固定模式稀疏度 (fixed-pattern sparsity)、分块稀疏度 (block sparsity) 和基于聚类的稀疏度 (clustering-based sparsity)
    • 固定模式稀疏度采用静态的 Token-level 掩码,如滑动窗口、扩张位置或指定的全局 Token ,提供了简单性和硬件友好性 (2020; 2019; 2023; 2023)
    • 分块稀疏度在分块粒度上选择或路由注意力,可以通过启发式评分 (2021; 2022; 2025)、可训练的选通机制 (2024; 2024) 来实现,从而实现结构化的内存访问和高效的 GPU 利用率
    • 基于聚类的稀疏度使用基于内容或位置感知的分组方法(如 k-means 或 LSH)来组织键值对,以降低内存开销并促进基于语义感知的检索 (2023; 2020; 2024)
  • 最后,本综述还讨论了将稀疏模式扩展到编码器风格模型的双向稀疏设计
    • 这些方法在稀疏粒度、选择机制以及与 FlashAttention (2023) 等硬件原语的契合度上有所不同,共同代表了现代 Transformer 中实现高效长上下文建模的基础
  • 近期已有文章将高效注意力机制整合到工业级预训练语言模型中
    • 这包括纯高效架构:如线性注意力和状态空间模型,以及结合了局部和全局注意力模式的混合设计
      • 像 EAGLE (2024)、Falcon Mamba (2024) 和 MiniCPM4 (2025) 这样的模型展示了纯线性或稀疏方法在数十亿参数规模上的可扩展性,在提供强性能的同时实现了恒定时间推理
    • 同时,混合模型 (2020; 2022; 2024; 2025; 2025; 2025) 交错使用密集、稀疏和局部注意力,以平衡计算效率和上下文建模能力
      • 反映了现代 LLM 中朝着组合化、硬件感知注意力设计发展的趋势
  • 论文的目标是为理解注意力机制在算法和硬件双重约束下的演进,以及这些设计如何被整合到可扩展的 LLM 架构中,提供一个统一的框架
    • 通过将理论洞见与实际实现相结合,作者希望本综述能为致力于高效且可部署模型设计的研究者和从业者提供有价值的参考
  • 论文将讨论安排如下:
    • 第 2 节:介绍Linear Attention,涵盖其在不同模型世代中的演变、相关的设计原理以及对硬件实现的影响
    • 第 3 节:介绍稀疏注意力 (Sparse Attention),对稀疏模式进行分类,分析部署场景,并提供实用的系统级设计建议
    • 第 4 节:回顾整合了高效注意力机制的预训练语言模型 (Pretrained Language Models),包括统一高效架构和整合了局部、稀疏、密集注意力的混合模型
    • 第 5 节:对未来的发展方向进行展望 (Outlook),讨论算法和硬件对齐研究中的开放挑战和潜在进展

Linear Attention

  • 传统的线性注意力方法旨在以与序列长度成线性关系的方式近似基于 softmax 的注意力机制
    • 核心思想是用一种基于核函数(kernel)的注意力权重近似来替代计算代价高昂的 softmax 计算
  • 在标准的自注意力中,每个输出是值 \(V\) 的加权和,权重由查询-键相似度经过 softmax 得到:
    $$
    \text{Attn}(Q,K,V)=\text{softmax}(QK^{\top})V, \tag{1}
    $$
    • \(Q,K,V \in \mathbb{R}^{L \times d}\)
    • (\(L\) 是序列长度
    • \(d\) 是每个头的模型维度)
  • softmax 为查询 \(q_i\) 和键 \(k_j\) 产生权重 \(\propto \exp(q_i^{\top}k_j)\)
  • 核化线性注意力则寻找一个特征映射 \(\phi(\cdot)\),使得 softmax 核函数可以在诱导出的特征空间中通过一个简单的点积来近似:\(\exp(q^{\top}k) \approx \phi(q)^{\top} \phi(k)\)(2019)
    • 给定这样的 \(\phi\),可以将注意力重写为:
      $$
      O = \frac{\phi(Q)(\phi(K)^{\top}V)}{\phi(Q)(\phi(K)^{\top}\mathbf{I})} \tag{2}
      $$
  • 由于 \(\exp(\cdot)\) 的值域是非负的,\(\phi(\cdot)\) 通常被选择为产生非负输出,同时应用归一化除数来模拟 softmax 概率
  • 这种重新表述将复杂度从 \(O(L^2 d)\) 降低到 \(O(L d^2)\)(或者在适当的特征降维下甚至可以达到 \(O(L d)\)),因为昂贵的 \(L \times L\) 注意力矩阵从未显式形成
  • Linear Transformer (2020)
    • 用一个固定的正特征映射替换了 softmax 核函数
    • 在实践中,他们设置 \(\phi(x) = \operatorname{ELU}(x) + 1\)
    • \(\operatorname{ELU}(\cdot)\) 在整个定义域内可微,与朴素的 \(\operatorname{ReLU}(\cdot)\) 函数相比表现出更好的性能
  • Performer (2020)
    • 引入了 FAVOR+(一种能够无偏估计 softmax 核函数的随机特征方案)
    • 它对随机特征映射 \(\phi\) 进行采样,使得 \(E[\phi(Q)\phi(K)^{\top}] = \exp(QK^{\top})\)
    • 这产生了一个仅需 \(O(N)\) 操作即可证明是完整 softmax 注意力的无偏估计量
    • 特别地,Performer 使用正交互随机特征,降低了近似中的方差
  • 随机特征注意力 (Random Feature Attention,RFA) (2021)
    • 一种通过为 softmax 核函数使用随机傅里叶特征构建的线性注意力
    • 与 Performer 类似,RFA 利用随机映射和三角激活来近似 softmax
    • RFA 在随机投影之前进一步对查询和键进行归一化以减少方差
    • RFA 还有一个变体 RFA-Gate,它增加了一个可选的选通机制以引入近因偏差
  • cosFormer (2022)
    • 使用余弦函数来近似 softmax
    • 由于 \(\cos(a+b) = \cos a \cos b - \sin a \sin b\),cosFormer 将余弦重加权注意力 \(S_{ij} = Q_i’ K_j’ \cos(\frac{\pi}{2} \times \frac{i-j}{M})\) 分解为线性注意力的形式
  • HedgeDog (2024)
    • 利用了一个尖峰核函数 \(\phi(x) = \exp(Wx + b)\),因为他们观察到 Transformer 和线性 Transformer 之间的性能差距源于缺乏尖峰和单调性属性
    • HedgeDog 展示了更好的注意力熵和单调性

Linear Attention with Forgetting Mechanism

  • 最近的一系列工作通过循环神经网络或连续状态空间模型的视角来解释注意力
  • 传统的线性注意力通常是无位置感知的,其中循环顺序对输出没有影响,但现代的线性注意力表现得更像具有状态追踪和隐藏记忆的 RNN
  • 因此,这些模型明确地结合了循环、门控或状态动力学,以线性复杂度处理长序列
  • 衰减因子是引入遗忘机制的最重要因素
Data-Independent Decay
  • Retentive Networks(RetNet) (2023)
    • RetNet 引入了一种 Retention 机制,它使用固定的衰减系数,以一种循环风格的更新来取代注意力
    • 在 RetNet 层中,每个时间步 \(t\) 维护一个状态向量 \(s_t\),该向量以指数遗忘的方式聚合过去的输入
    • 循环可以写为:
      $$
      S_t = \gamma S_{t-1} + k_t^{\top} \nu_t \tag{3}
      $$
      • \(\gamma \in (0,1)\) 是一个学习的衰减因子(每个保持头)
      • \(k_t^{\top} \nu_t\) 是来自当前 Token 的新贡献(\(\nu_t\) 是 \(x_t\) 的值投影,\(k_t\) 是键投影)
    • 然后通过一个线性“查询”投影获得输出:\(o_t = q_t s_t\);展开方程 3 得到保持的显式公式:
      $$
      o_t = q_t S_t = \sum_{n=1}^{t} \gamma^{t-n} q_t k_t^{\top} \nu_t \tag{4}
      $$
    • 这表明 Token \(n\) 的贡献在时间步 \(t\) 时以因子 \(\gamma^{t-n}\) 呈指数衰减
    • Crucially,\(\gamma\) 是一个数据无关的衰减,是层的固定参数(在多头保持中通常每个头一个),而不是输入内容的函数
      • 这使得 RetNet 能够像 RNN 一样进行 \(O(1)\) 的内存更新,同时仍然允许通过等效的矩阵公式在训练期间进行并行计算(例如,可以证明方程 3 等价于一个“保持矩阵”形式,\(\text{Retention}(X) = (Q K^{\top} \odot D) V\),其中对于 \(t \geq n\),\(D_{t,n} = \gamma^{t-n}\) 实现了衰减和因果掩码)
    • RetNet 的保持机制与其他数据无关的循环模型有共同的主题
  • Eagle (2024)
    • 通过外积记忆改进了 RWKV 设计,这等效于线性注意力
    • 在 RWKV 系列中,衰减因子参数化为 \(\gamma = \exp(-\exp(w))\),其中 \(w\) 是一个数据无关的可学习因子
    • 在实践中,RetNet 和 Eagle 都使用固定衰减来遗忘旧信息,实现了线性推理扩展和具有竞争力的性能
    • 经验上,RetNet 每个头使用一个固定标量 \(\gamma\)(通常每层有多个具有不同 \(\gamma\) 值的保持头,形成一种多尺度衰减),而 Eagle 使用可学习的标量 \(w\) 来参数化衰减因子
  • Lightning Attention (2023; 2024)
    • Lightning Attention 也提出了一种线性注意力层 ,每个头增加了一个固定标量衰减,以实现长度不变的计算速度
    • 在 Lightning Attention 中,对于某个常数 \(\lambda\)(\(\lambda\) 由模型学习或设置),隐藏状态本质上是 \(s_t = \lambda s_{t-1} + k_t^{\top} \nu_t\),这与 RetNet 的 \(\gamma\) 精神相同,但针对硬件效率进行了优化
  • H3 (2022)
    • H3 将循环状态空间模型 (2021) 引入线性注意力,通过 SSM 为键值外积隐藏状态使用学习的、数据无关的指数衰减
    • 线性注意力通过分块计算实现了高效的训练,但 H3 需要为 SSM 计算显式状态扩展,从而限制了头维度,导致表达能力有限
  • In summary,数据无关的衰减方法维持一个随时间以预定速率衰减的持久状态,实现了 \(O(1)\) 循环和每步恒定内存
    • 它们牺牲了一些适应性 ,这促使了在更近期的模型中引入数据相关机制
Data-Dependent Decay
  • 虽然固定衰减提供了简单性和速度,但它们可能未能充分利用输入流中的信息
  • 门控或数据相关的方法使遗忘因子本身成为当前输入的学习函数
  • 这种循环更新的一般形式是:
    $$
    S_t = G_t S_{t-1} + k_t^{\top} \nu_t \tag{5}
    $$
    • \(S_{t-1}\) 是前一个状态
    • \(G_t\) 是由 Token \(x_t\) 确定的门控张量
      • 如果 \(G_t\) 在某个分量上接近 0,则该分量中的过去状态在时间 \(t\) 被大量遗忘;
      • 如果 \(G_t \approx 1\),则过去状态被保留
    • 与 RetNet 中的常数 \(\gamma\) 不同,这里的 \(G_t\) 通过 \(x_t\) 随 \(t\) 变化
  • 在大语言模型设计中,这种策略的两个显著例子是 Mamba (2023) 和门控线性注意力 (Gated Linear Attention, GLA) (2023)
  • Mamba
    • 一种循环状态空间模型,它赋予状态衰减率以输入依赖性
    • 在每个 Mamba 层中,基本的状态演化类似于 S4 (2021),但状态矩阵实际上变得动态
    • \(G_t\) 是一个范围在 0 到 1 之间的分组向量,作为动态遗忘门
      • 这弥合了注意力和纯 SSM 之间的差距
    • 实证结果表明,Mamba2 在语言建模任务上可以超越相似甚至更大规模的 Transformer,凸显了数据相关衰减在长序列建模中的能力
  • GLA
    • 直接在线性注意力中引入了门控机制,将一个门控函数嵌入到线性化的注意力层中以提高其表达能力
    • GLA 通过一个可学习的 Element-wise 遗忘门 \(G_t\) 来修改保持循环
  • 除此之外,其他几个模型同样赋予了其循环以内容相关的门控
  • xLSTM (2024)
    • 用线性门控信号(带归一化)的指数变换取代了标准的 sigmoid 遗忘门,对其单元状态产生了平滑的、输入条件化的衰减
  • GateLoop (2023)
    • 在保持机制上应用了头级门控,实现了一个简单但有效的数据相关衰减,同时保持了高效的硬件实现
  • HGRN (2023)
    • 在线性 RNN 中引入了门控循环
    • HGRN2 (2024) 进一步在 HGRN 框架中增加了状态扩展
    • 状态扩展等效于线性注意力中的键值外积
  • Finch (2024)
    • 在 Eagle 上使用了数据相关的门控
    • 由于 Eagle 与其他正交修改的保持机制相似,Finch 也显示出与上述模型的深厚联系
  • In summary,数据相关衰减模型通过基于内容的门控来增强线性注意力或 RNN 风格的架构,这些门控控制着信息的流动
    • 论文中的结果表明,这些模型在语言任务上通常能够匹配或超越 Transformer 的性能 ,同时能够扩展到非常长的输入

Linear Attention as In-Context Learners

  • 除了线性注意力机制带来的效率提升外,一项重大进展在于它们应用于增强上下文学习能力
    • 这指的是模型能够从给定的 Prompt 中快速适应或学习,而无需对其预训练权重进行显式的梯度更新
    • 理解:这里是说注意力机制本身是上下文学习期,即增加一些 Prompt Token,就可以借助修改注意力内容来实现对模型的快速学习
  • 大型 Transformer 模型通过将 Prompt 解释为一种训练数据的形式,固有地表现出上下文学习
    • 但最近的创新已将快速学习规则直接整合到注意力机制中,有效地将序列处理视为一个在线训练过程
    • 问题:这里的方法具体是什么?
  • FWP (2021) 建立了现有线性注意力机制与快速权重编程器之间的形式等价性
    • 在 FWP 范式中,一个慢速神经网络学习去编程另一个神经网络的“快速权重”,通常通过自发明的键和值模式的外积加法来实现
  • 表 1:
    • 不同线性注意力变体的更新规则
    • 每个模型都是关于矩阵记忆 \(S_t\) 的循环
Learning Objective
  • 从元学习的角度来看,这些模型定义了一个在推理过程中优化的隐式学习目标
  • 用 \(q_t, k_t, \nu_t\) 表示时间步 t 的查询、键和值,上下文记忆 \(S_t\) 通过以下目标进行优化:
    $$
    \mathcal{L}_t(S) = \frac{1}{2} || f_S(k_t) - \nu_t ||^2 \tag{6}
    $$
  • DeltaNet
    • DeltaNet 融合了经典的 delta 规则 (2021),其中 \(f_S(k_t) = S k_t\)
    • DeltaNet 更新规则为
      $$ S_t = S_{t-1} + \eta_t (\nu_t - S_{t-1} k_t) k_t^{\top} $$
      • 可以通过最小化当前记忆检索 \(S_{t-1} k_t\) 与新值 \(\nu_t\) 之间的误差推导出来
      • 这标志着朝着在线学习键值映射、基于即时上下文改进记忆迈出了一步
  • TTT (2024)
    • TTT 用不同的建模架构概括了元学习目标:
      $$
      f_S(k_t) = \begin{cases}
      \text{LM}(S k_t) + k_t, & \text{TTT-Linear} \\
      \text{LM}(\text{MLP}_S(k_t)) + k_t, & \text{TTT-MLP}
      \end{cases} \tag{7}
      $$
    • 上下文网络 \(f_S\) 增强了上下文元学习的能力
    • 但由于 \(f_S\) 的梯度比简单的线性投影复杂得多,在线更新不能写成一个简单的规则
  • 批量更新 (Batch Update)
    • 批量更新试图解决当 \(f_S\) 作为神经网络工作时训练并行性的困难
    • 通常,上下文记忆是以批大小为 1 进行元学习的,这对于一般的 TTT 模型来说不可行
    • 相反,类似于分块并行,TTT 将整个块视为一个批次
    • 在批次内没有状态更新(即 \(S\) 保持不变)
    • 处理完批次后,\(S\) 使用来自批次中所有样本的聚合梯度或更新信号进行一次更新
    • 这种策略在保持并行效率的同时,适应了更复杂架构的训练要求
  • Momentum Titans (2025)
    • Titans 中引入了优化中常用的动量,以加强记忆更新机制的能力:
      $$
      \mathcal{M}_t = (1 - \alpha_t) \mathcal{M}_{t-1} + S_t \\
      o_t = q_t \mathcal{M}_t \tag{8}
      $$
    • 动量项允许记忆通过对状态 \(S\) 进行指数移动平均来逐渐积累信息
    • 这可以看作是元学习的一种形式,其中更新规则本身学会了在长序列上更加稳定和鲁棒
  • 权重衰减 (Weight Decay)
    • 权重衰减是训练中的另一种正则化技术,对应于线性注意力模型中的遗忘机制
    • Gated DeltaNet (2024) 和 Titans 在其记忆更新中使用了权重衰减,作为学习的遗忘门来限制非常旧或嘈杂数据的影响
    • 它对应于在 RetNet (2023) 和 Mamba (2023) 等架构中发现的选择性状态保持机制,其中衰减机制被证明对语言建模性能至关重要:
      $$
      S_n = \gamma_n S_{t-1} + \eta_t (v_t - S_{t-1} k_t) k_t^{\top} \tag{9}
      $$
  • In summary,线性注意力机制中的这些进步通过明确地将元学习原则整合到其架构中,正在推动上下文学习的边界
    • 通过快速权重更新、复杂的内存管理技术和在线学习规则,这些模型正朝着一种范式发展,在这种范式中,训练和推理之间的区别变得越来越模糊,从而产生了能够直接从上下文中学习和利用知识的更高效、适应性更强的大语言模型

Discussion on Other Designs

Element-wise Linear Attention
  • 无需注意力的 Transformer (Attention-Free Transformer) (2021)
    • 利用一个简单的权重 \(\exp(K_{\nu’} + w_{t,\nu’})\) 来代替 \(\exp(QK^{\top})\):
      $$
      O_t = \sigma_q(Q_t) \odot \frac{\sum_{\nu’=1}^{t} \exp(K_{\nu’} + w_{t,\nu’}) \odot V_{\nu’} }{\sum_{\nu’=1}^{t} \exp(K_{\nu’} + w_{t,\nu’})} \tag{10}
      $$
    • 其中 \(w_{t,\nu’}\) 是学习的成对位置偏置
    • 在 AFT 的变体中,AFT-Simple 移除了 \(w_{t,t’}\),实现了线性化的推理模式
    • 由于 \(K\) 和 \(V\) 的乘积是 Element-wise 的,循环状态大小是 \(\mathbb{R}^d\) 而不是外积状态 \(\mathbb{R}^{d \times d}\)
  • RWKV (2023)
    • 在 AFT-Simple 上利用了衰减机制。具体来说,RWKV 通过指数衰减 \(w_{t,i} = -(t-i)w\) 改进了 AFT 的位置偏置
    • 指数形式在引入位置偏置的同时保留了循环属性
  • Element-wise 线性注意力带来了强大的推理优势,但它受到状态大小瓶颈的影响,性能低于基于矩阵的状态大小
    • Besides,尽管 Element-wise 内存比外积内存快得多,但由于其他组件在拥有外积内存的情况下占据了超过 95% 的延迟 (2023),端到端的优势仍然有限
Multi-Pass Linear Attention
  • 带有限内存控制的注意力 (Attention with Bounded-memory Control)
    • 将线性注意力视为一个有界内存模块:
      $$
      \begin{split}
      \tilde{K}_n &= \sum_{i=1}^{n} K_i \otimes \phi_i, \quad \tilde{V}_n = \sum_{i=1}^{n} V_i \otimes \phi_i \\
      O_n &= \text{softmax}(Q_n \tilde{K}_n^{\top}) \tilde{V}_n
      \end{split} \tag{11}
      $$
    • 其中 \(\tilde{K}_n, \tilde{V}_n\) 是在线更新的、大小受限的键和值。在实现中,ABC 可以简化为两遍线性注意力
  • 门控 Slot 注意力 (Gated Slot Attention) (2024)
    • 进一步将 GLA 引入到 ABC 框架 (2021) 中
    • 由于 \(\tilde{K}_n, \tilde{V}_n\) 作为一个隐式的线性注意力工作,GSA 将更新改进为门控形式:
      $$
      \tilde{K}_n = \text{Diag}(\alpha_n) \tilde{K}_{n-1} + (1 - \alpha_n) \otimes K_n, \quad \tilde{V}_n = \text{Diag}(\alpha_n) \tilde{V}_{n-1} + (1 - \alpha_n) \otimes V_n \tag{12}
      $$
  • Multi-Pass 是增强线性注意力表达能力的一种有效方式,但它也带来了额外的计算开销,这使得架构设计需要在训练效率和性能之间进行权衡
Bidirectional Linear Attention
  • 双向注意力在编码器风格的架构(如 BERT (2019))中扮演着重要角色
  • 单向和双向注意力在线性表述中的关键区别在于推理瓶颈和计算模式
  • Decoder-only 模型通常表现出 \(O(N^2)\) 的复杂度,且 Decoder-only 模型中的每个 Token 都可以访问全局信息
    • 因此双向线性注意力通常维护一个恒定长度的全局 Token 池以降低复杂度,同时保留 softmax 函数的使用
  • 例如
    • Linformer (2020) 通过一个额外的矩阵投影将键和值的数量减少到一个恒定长度
    • Luna (2021) 通过跨模型层编码全局 Token 池进一步扩展了 Linformer 设计
  • 虽然双向线性注意力对 Decoder-only 架构有效,但这些设计在应用于因果设置时面临重大挑战,因为基于全局池的方法往往计算成本高昂
    • 因此,此类架构不太适合大语言模型

Hardware Implementation

  • 并行表示 (The Parallel Representation)
    • 可以将带门控衰减的因果线性注意力定义为:
      $$
      \begin{split}
      Q &= \phi(XW_Q), \quad K = \phi(XW_K), \quad V = XW_V, \quad \gamma = f_\gamma(X) \\
      D_{nm} &= \begin{cases}
      \prod_{i=m+1}^{n} \gamma_i, & n \geq m \\
      0, & n < m
      \end{cases}, \quad O(X) = \text{LN}((Q K^{\top} \odot D) V)
      \end{split} \tag{13}
      $$
    • 其中
      • \(W_Q, W_K, W_V \in \mathbb{R}^{d \times d}\)
      • \(f_\gamma\) 控制衰减的锐度
      • 矩阵 \(D \in \mathbb{R}^{N \times N}\) 编码了具有衰减模式的因果掩码,确保信息的单向流动
    • 当衰减是数据无关时,\(f_\gamma(\cdot) = \text{const} \in (0,1]\)
      • 注意,线性注意力后的分组归一化 (GroupNorm) (2018) 已经是一个强制性的组件 (2023),方程 2 中核化线性注意力的显式除数变得不必要
    • 并行表示简单易懂,但有两个缺点
      • 第一:并行形式仍然保持了与 softmax 注意力相同的 \(O(N^2)\) 复杂度
      • 第二:当表示第 2.3 节中的 ICL 风格线性注意力时,其复杂性会增加
  • 循环表示 (The Recurrent Representation)
    • 上述并行公式可以等效地表达为逐步解码的循环形式,如图 2(b) 所示,在每个时间步 \(n\),输出计算为:
      $$
      S_n = f_{\text{update} }(S_{n-1}, K_n, V_n), \quad O_n = Q_n S_n \\
      f_{\text{update} }(S_{n-1}, K_n, V_n) = \begin{cases}
      \gamma_n S_{n-1} + K_n^{\top} V_n, & \text{Linear Attention with Decay} \\
      \gamma_n S_{n-1} + \eta_n (V_n - S_{n-1} K_n) K_n^{\top}, & \text{ICL-style Linear Attention}
      \end{cases} \tag{14}
      $$
    • 这种循环表示通过维护单个状态向量 \(S_n\),实现了具有恒定内存的高效自回归生成
    • 虽然循环表示将计算复杂度从 \(O(N^2)\) 降低到 \(O(N)\),但它在训练期间会产生大量的内存开销
      • 因为 \(S_n\) 涉及存储 \(K_n\) 和 \(V_n\) 的外积,这对于长序列来说是极其昂贵的
      • 因此,循环形式通常仅限于解码阶段
  • 分块循环表示 (The Chunkwise Recurrent Representation)
    • 分块表示结合了线性复杂度和硬件友好的并行性的优势 (2022; 2023)
    • 如图 2(a) 所示,以衰减风格线性注意力为例,给定一个块大小 \(B\),令 \(x_{[i]}\) 表示第 \(i\) 块。定义块内的累积衰减为:
      $$
      \beta_{(i-1)B+j} = \prod_{k=(i-1)B+1}^{(i-1)B+j} \gamma_k, \quad D_{[i]}(j,k) = \begin{cases}
      \frac{\beta_{(i-1)B+k} }{\beta_{(i-1)B+j} }, & j \leq k \\
      0, & \text{Other wise}
      \end{cases} \tag{15}
      $$
    • 块级记忆状态 \(R_i\) 计算为:
      $$
      R_i = K_{[i]}^{\top} (V_{[i]} \odot \frac{\beta_{iB} }{\beta_{[i]} }) + \beta_{iB} R_{i-1} \tag{16}
      $$
    • 第 \(i\) 块的输出为:
      $$
      O_{[i]} = (Q_{[i]} K_{[i]}^{\top} \odot D_{[i]}) V_{[i]} + (Q_{[i]} R_{i-1}) \odot \beta_{[i]} \tag{17}
      $$
    • 这种表述提供了循环和并行的统一视图:
      • 第一项捕获块内依赖关系
      • 第二项通过单个矩阵-向量乘积传播块间记忆
      • 由于其效率和可并行性,分块表示通常在训练和预填充阶段被采用
  • 对于 ICL 风格的线性注意力,已经使用 Householder 变换 (2024) 开发了硬件友好的分块表示
    • 但对于更复杂的变体,如 TTT 和 Titans,构建显式的分块形式仍然具有挑战性
    • 相反,这些架构通常依赖于大的批次大小进行记忆更新,通过固定超参数有效地模拟分块计算
  • 内核级优化对于实现高性能至关重要
    • 广泛采用的 FLA (2024) 为许多常见的线性注意力模块提供了基于 Triton 的实现
    • 或者,开发者还提供了用 CUDA 或 TileLang (2024) 编写的自定义实现,可以用于进一步加速
  • 图 2:线性注意力的双重形式

Sparse Attention

  • 稀疏注意力(Sparse Attention)方法利用注意力计算中固有的稀疏特性,通过以下公式近似完整注意力计算:
    $$
    \text{Attn}(Q,K,V) = \text{softmax}(QK_{[\mathcal{S}]}^T)V_{[\mathcal{S}]} \tag{18}
    $$
    • 其中 \(\mathcal{S}(t)\) 是查询向量 \(Q(t)\) 所关注索引的子集
    • 不同的方法基于选择准确性和硬件效率的考量,设计了不同的选择标准 \(\mathcal{S}(t)\)
    • 目标是在预填充(prefilling)阶段实现亚线性或线性复杂度,或在解码(decoding)阶段控制固定的计算预算

Fixed-pattern Sparse Attention (固定模式稀疏注意力)

  • 一些研究工作利用 Token-level 别稀疏性的结构化模式,为注意力计算构建固定的稀疏掩码
  • Local Window Attention (局部窗口注意力)
    • 局部窗口注意力将每个查询限制在仅与固定滑动窗口 \(w\) 内的相邻 Token 交互,从而在保留局部上下文的同时降低内存和计算需求
    • Sparse Transformer (2019) 首先应用局部窗口(行)注意力,其中 \(w\) 接近 \(\sqrt{N}\),然后通过额外的列注意力来总结先前位置并在全局传播信息
    • GPT-3 (2020) 也采用了与 Sparse Transformer 类似的稀疏注意力模式
    • StreamingLLM (2023) 发现大量的注意力得分被分配给了输入序列的初始 Token ,他们称之为“注意力汇集点(attention sink)”。他们提出了一种简单的固定模式注意力,只保留汇集点 Token 和滑动窗口内的 Token 。例如,给定一个长度为 \(n\) 的输入序列,StreamingLLM 中查询 Token \(q_t\) 的选定 Token 子集 \(\mathcal{S}(t)\) 被定义为:
      $$
      \mathcal{S}(t) = \left\{ j \mid 0 \leq j \leq s \ \lor \ t-w \leq j \leq t \right\}, \ \forall t \in [1, n] \tag{19}
      $$
      • 其中 \(s\) 是汇集点 Token 的大小,\(w\) 是滑动窗口的大小
      • 为了获得更好的硬件效率,采用块粒度的 StreamingLLM (2024) 以块方式保留汇集点 Token 和局部 Token ,从而实现高效的内存加载和计算
  • Dilated Attention (膨胀注意力)
    • LongNet (2023)
      • 引入了膨胀注意力作为长上下文训练和推理的固定稀疏模式。膨胀注意力随着距离的增长呈指数级扩展注意力范围,从而将注意力的复杂度从 \(O(n^2)\) 降低到 \(O(n)\)。具体来说,在沿序列维度将输入分割成长度为 \(w\) 的片段后,从每个片段中以间隔 \(r\) 选择膨胀稀疏索引。第 \(i\) 个片段的选择索引为:
        $$
        \hat{I}_i = \left[iw, iw+r, iw+2r, …, (i+1)w-1 \right] \tag{20}
        $$
      • 稀疏化的片段 \(Q_{\hat{I}_i}, K_{\hat{I}_i}, V_{\hat{I}_i},\ i \in \{0, 1, …, \frac{n}{w}\}\) 被并行输入到注意力计算中,得到注意力输出 \(O\)。结合不同片段大小和膨胀率 \(\{r_i, w_i\}^{k}\) 的注意力输出,最终注意力计算如下:
        $$
        O = \sum_{i=1}^{K} \alpha_i O|_{r_i, w_i}, \quad \alpha_i = \frac{s_i}{\sum_{j} s_j} \tag{21}
        $$
      • 其中 \(s_i\) 表示 \(O|_{r_i, w_i}\) 的注意力 softmax 的分母
  • LogSparse (2019)
    • 采用指数稀疏注意力方案,其中每个位置仅关注 \(\log N\) 个 Token ,这可以看作是指数膨胀注意力的一个实例

Block Sparse Attention (块稀疏注意力)

  • 给定一个长度为 \(n\)、块大小为 \(b\) 的输入序列,可以将 \(Q, K, V \in \mathcal{R}^{n \times d}\) 各自划分为 \(\frac{n}{b}\) 个块,每个块大小为 \(b \times d\)
  • 目标是近似一个块级掩码 \(M \in \{0, 1\}^{n/b \times n/b}\),用于选择关键块进行计算,如图 3 所示
    $$
    \text{Attn}(Q, K, V)_i = \sum_{j=1}^{n/b} M_{ij} \cdot \text{softmax}(Q_i K_j^T) V_j \tag{22}
    $$
  • 块级选择对于在现代 GPU 上实现高效计算至关重要
  • 图 3: 块稀疏注意力:长序列被分成若干块,每个 Token 仅关注其局部窗口和 top-k 相关块
Block-Sparse Attention for Prefill (用于预填充的块稀疏注意力)
  • 使用块稀疏注意力进行预填充的方法,近似选择覆盖大部分注意力得分且具有高召回率的 Top-K 块,从而将注意力计算复杂度从 \(O(n^2)\) 降低到 \(O(K)\)
    $$
    S = \text{softmax}(QK^T - c(1 - M)) \\
    \min \ |S(M) - S_{\text{dense} }|
    $$
    • 其中 \(M\) 是如上定义的块级稀疏掩码,\(c\) 是一个大常数(例如 1e5),确保重要性较低的注意力权重在 softmax 计算后趋近于零
    • 块稀疏注意力的目标是在最小开销下实现更大的加速,同时尽可能保留更多的注意力权重
  • MInference (2024)
    • 观察到注意力权重中存在三种模式:
      • 流式(A 型)模式(Streaming (A Shape) Pattern)
      • 垂直斜线模式(Vertical-Slash Pattern)
      • 块稀疏模式(Block-Sparse Pattern)
    • 它离线确定每个注意力头的最佳模式,并在推理过程中基于指定的模式动态构建稀疏索引
  • FlexPrefill (2025)
    & 提出了一种上下文感知的稀疏注意力机制,能够实时动态调整注意力模式和计算预算
  • XAttention (2025)
    • 提出了一个块稀疏注意力框架,利用反对角线(antidiagonal)评分来预测注意力块的重要性,从而能够高效识别并剪除非必要块,实现高稀疏性和显著的计算增益
  • SpargeAttn (2025)
    • 同样在预填充阶段采用块级稀疏注意力,通过一个双阶段在线过滤过程完成:
      • 第一阶段快速预测注意力图以跳过某些矩阵乘法
      • 第二阶段应用 softmax 感知的过滤器以进一步消除不必要的计算
Block-Sparse Attention for Decode (用于解码的块稀疏注意力)
  • 用于解码的块稀疏注意力方法动态选择包含每个解码步骤最关键的 Token 的子集 \(S\) 的 \(K, V\) 向量,从而减少内存加载并提高效率
  • Quest (2024) 通过计算注意力权重的上界来近似每个块的关键性。对于块 \(K_i\),论文通过以下公式维护 Element-wise 的 Min 和 Max Key \(m_i\) 和 \(M_i\):
    $$
    m_{i,d} = \min(K_{i,d}), \quad M_{i,d} = \max(K_{i,d})
    $$
    • 其中 \(\min(\cdot)\) 和 \(\max(\cdot)\) 在每个维度 \(d\) 上 Element-wise 应用
  • 给定查询 \(q\),块 \(i\) 的近似注意力得分由下式给出:
    $$
    \text{score}_i = \sum_{j=1}^{d} \max(q_j \times M_{i,j}, q_j \times m_{i,j})
    $$
  • 然后选择得分最高的 Top-K 块作为注意力计算的稀疏子集 \(S\):
    $$
    S = \text{argtopk}(\text{score}, k)
    $$
  • DoubleSparsity (2024) 通过降低计算 \(QK^T\) 乘积的矩阵乘法维度来高效近似关键 Token
    • 它首先离线计算 \(QK^T\) 中的离群通道,记为 \(C\)
    • 然后选择具有最高近似注意力得分 \(\hat{s}\) 的 Top-K Token 作为稀疏子集 \(S\):
      $$
      Q_{\text{label} } = Q_{\{C\} }, \quad \hat{s} = Q_{\text{label} } K_{\text{label} }^T, \quad S = \text{argtopk}(\hat{s}, k)
      $$
  • ReSA (2025)
    • 结合了无需训练的块稀疏估计和 GQA 共享,有助于提高效率
    • ReSA 还提出了一个修正阶段来控制 KV 缓存累积误差
    • ReSA 在长序列生成任务上显示出优势
Routing-based Block-Sparse Attention (基于路由的块稀疏注意力)
  • 基于路由的块稀疏注意力通过可训练的 MLP 层学习每个 Token 块的重要性,该层在推理期间充当门控网络以选择关键块
  • Learnable Sparsity on Pretrained Models (预训练模型上的可学习稀疏性)
  • SeerAttention (2024)
    • 通过自蒸馏(self-distillation)的方式在预训练的 LLM 上训练门控网络
    • 为了获得每个块的重要性分数,它首先沿序列维度对 \(Q\) 和 \(K\) 进行池化,记为 \(P_q\) 和 \(P_k\)。下采样后的 \(Q, K\) 然后通过一个可学习的线性层 \(W_q\) 和 \(W_k\)
    • 投影后的 \(W_q P_q(Q)\) 和 \(W_k P_k(K)\) 的矩阵相乘结果通过 softmax 运算符作为门控过程:
      $$
      \text{score} = \text{softmax}((W_q P_q(Q)) \cdot (W_k P_k(K)))
      $$
    • 可学习的线性层通过自蒸馏的方式训练,以与原始 LLM 的 2D 最大池化结果对齐。蒸馏损失计算如下:
      $$
      gt = \text{MaxPool2D}(\text{softmax}(QK^T)), \quad loss = D_{KL}(gt \ || \ \text{score})
      $$
    • 在推理过程中,门控分数通过 Top-K 或阈值化来预测块级稀疏性,用于稀疏计算和效率提升
  • Training-aware Sparse Attention (训练感知的稀疏注意力)
    • Landmark (2023)
      • 提出使用特殊的“地标”(landmark) Token 来表示每个块,并训练注意力机制通过这些地标 Token 直接检索 Top-K 块
      • 然而,它没有在大型预训练模型上进行实验
    • MoBA (2025)
      • 将可训练的稀疏注意力集成到预训练阶段
      • 它提出了 Mixture of Block Attention,应用来自 MoE(专家混合)的 Top-K 机制作为门控机制,为每个查询 Token 决定关键块
      • 每个块的重要性分数通过查询 Token \(q\) 和块 \(K_i\) 沿 Token 维度的平均池化结果的内积计算:
        $$
        s_i = \langle q, P_{\text{mean} }(K_i) \rangle
        $$
      • 然后选择具有最高 \(s\) 分数的 Top-K 块用于计算 \(q\) 的注意力
      • Notably,MoBA 使用的 Top-K 块选择是不可微分的
        • 因此,在预训练阶段,稀疏模式仍然以无需训练的模式进行估计,从而实现高效的推理和加速的训练
    • NSA (2025)
      • 引入了一种训练感知的多粒度稀疏注意力机制,包含三个分支 \(C \in \{\text{cmp}, \text{slc}, \text{win}\}\),分别对应压缩(compression)、选择(selection)和滑动窗口(sliding window)策略
      • NSA 利用一个可微分的压缩分支来学习块选择分数。结合三个分支,NSA 的注意力输出由下式给出:
        $$
        o = \sum_{c \in \mathcal{C} } g^c \cdot \text{Attn}(q, K^c, V^c), \quad g_c \in [0, 1]
        $$
      • 对于压缩分支 \(c = \text{cmp}\),块 \(i\) 的键 \(K_i \in \mathcal{R}^{d_i \times b}\) 通过一个可学习的 MLP 层 \(\varphi\) 被压缩为单个键 \(K_i^{\text{cmp} } \in \mathcal{R}^{d_i \times 1}\)
      • 对于选择分支 \(c = \text{slc}\),基于块重要性分数 \(p\) 选择 Top-K 块,该分数可以直接从压缩分支获得
    • InfLLM-v2 (2025)
      • 采用了与 MoBA 类似的训练感知 Top-K 块稀疏注意力机制
      • 为了提高 Top-K 块选择的准确性,它将块划分为具有重叠的小粒度内核,并在每个块内对内核重要性分数进行聚合
System-level Design Choices (系统级设计选择)
  • 训练感知的稀疏注意力 (2025; 2025; 2025) 开始考虑内核实现和高效执行
  • 为了实现块稀疏注意力的高效实现,FlashAttention (2023) 被用于在高效的平铺机制中进行注意力计算,这为更好地利用硬件资源带来了要求和机会,包括:
    • 为避免内存访问不一致,在 SeerAttention (2024) 和 MInference (2024) 中,块大小 \(b\) 通常设置为至少 64 的相对较大值
    • 为了与 GPU 张量核心上分组矩阵乘法指令(Grouped Matrix Multiplication)的最低要求对齐,在 NSA (2025) 和 InfLLM-v2 (2025) 中,一个查询组内的 K、V 头数被设置为至少 16
    • 为了减少内存访问,NSA (2025) 和 InfLLM-v2 (2025) 强制查询组之间共享选定的块,这是通过在查询组内对块级重要性分数进行池化来完成的

Clustering Attention (聚类注意力)

  • 与块稀疏注意力类似,聚类注意力旨在为解码选择最关键地 Token ,但将 Token 组织在数据结构中以获得更好的语义属性或采样效率
  • RetrievalAttention (2024)
    • 采用近似最近邻搜索(Approximate Nearest Neighbor Search, ANNS)来选择关键的 K 个聚类
    • 为了解决注意力机制中查询向量和键向量之间的分布外(out-of-distribution)性质带来的挑战,它引入了一种适应查询向量分布的注意力感知向量搜索算法
  • ClusterKV (2024)
    • 在语义聚类的粒度上选择 Token ,克服了诸如 Quest 等页面级检索方法内部碎片化的问题
    • 在预填充阶段之后, Token 通过 K-means 算法进行聚类
    • Token \(i\) 和 \(j\) 之间的语义相似性通过键向量的余弦相似性度量:\(\mathcal{D}(i, j) = 1 - \frac{\langle k_i, k_j \rangle}{|k_i| \cdot |k_j|}\)
    • 语义聚类由其质心 \(\mu_1, \mu_2, …, \mu_C \in \mathcal{R}^d\) 表示
    • 在每个解码步骤,基于查询 Token \(q\) 和质心 \(\mu_i\) 的注意力权重(即 \(q \mu_i^T\))的排名来选择聚类
  • MagicPIG (2024)
    • 利用局部敏感哈希(Locality Sensitive Hashing, LSH)采样来高效近似注意力计算
    • 它使用 LSH 将相似的查询向量和键向量映射到相同的哈希桶中,并将存储和部分计算卸载到 CPU,以解决 KV 缓存的瓶颈
    • 它还引入了 Oracle Top-K 采样作为比暴力 Top-K 更好的策略

Bidirectional Sparse Attention (双向稀疏注意力)

  • 双向稀疏注意力建立在编码器风格的架构上,使用静态模式或块级稀疏性来加速注意力计算
  • 块稀疏性在双向稀疏注意力中被广泛使用
    • BigBird (2020)
      • 使用块级随机注意力,作为缩短 Token 之间间接路径的桥梁
    • Longformer (2020)
      • 使用静态的全局-局部混合注意力
      • Longformer 也依赖于块级稀疏性,并带有额外的全局和随机链接,以促进结构化计算和内存高效的并行性
  • 基于聚类的方法也用于双向稀疏注意力
    • Reformer (2020)
      • 使用局部敏感哈希(LSH)将相似的 Token 分配到同一个桶中
    • Routing Transformer (2020)
      • 在每一层执行在线 \(k\)-means 聚类
    • ClusterFormer (2022)
      • 引入了一个与下游目标共同训练的可微分聚类模块
      • 这些方法通过分组相关 Token 来减少计算,同时通过学习的适应性来保持性能

采用高效注意力机制的预训练大语言模型

采用统一高效注意力机制的预训练模型

  • 尽管早期的线性注意力探索通常局限于小规模模型,但近期的进展已证明其能够成功扩展到数十亿参数的规模,使其成为标准 Transformer 的一种可行且高效的替代方案
  • 这些模型完全基于线性注意力或其架构等价物,如状态空间模型和循环神经网络,即使在大规模下也能保持其标志性的推理效率
  • 基于 RWKV 的模型
    • RWKV 项目代表了一项持续且有影响力的努力,旨在创建一个可扩展的循环神经网络架构,它结合了 Transformer 的可并行化训练与传统 RNN 的高效推理 (2023)
    • 例如,EAGLE 系列引入了矩阵值状态以增加容量,而后续迭代如 Finch (RWKV-6) (2024) 和 Goose (RWKV-7) (2025) 则结合了动态循环和更具表达力的状态演化机制,以支持更复杂、数据依赖的状态转换
  • 基于 Mamba 的模型
    • Mamba 架构的成功及其数据依赖的选择机制,已引发了主要研究实验室的一波采用和扩展浪潮
    • Falcon Mamba (2024)
      • 基于纯 Mamba 架构,在一系列通用语言基准测试中展现出与领先 Transformer 模型相竞争的性能,验证了该架构在此类任务上的可行性,同时保持了其标志性的恒定时间推理
    • Codestral Mamba (2024)
      • 基于 Mamba-2 架构,进一步证明了该范式的潜力
      • 虽然专门用于代码生成,但它在相关基准测试中取得了 SOTA 结果,并支持 256K 个 Token 的上下文长度,展示了 SSM 方法在复杂结构化领域内的可扩展性和有效性
  • 基于稀疏注意力的模型
    • MiniCPM-4 (2025) 引入了一种两阶段稀疏注意力机制,根据语义相似性为每个查询 Token 动态选择相关的键值块
    • MiniCPM-4 利用 InfLLM-v2(一种块稀疏注意力变体)来替代标准注意力机制
    • 此外,一种轻量级的 LogSumExp 近似实现了高效的 top-k 选择,使得该方法能够扩展到极长序列
    • 这些技术共同使 MiniCPM-4 能够在细粒度上下文感知能力与可控的内存和计算需求之间取得平衡,使其成为长上下文建模的有力候选者

采用混合高效注意力机制的预训练模型

  • 随着对高效长上下文建模和多样化计算范式需求的增长,最近的研究广泛探索了混合注意力机制
  • 此类策略结合了全局和局部注意力组件,通常交错使用专门设计的层,以平衡计算成本和性能
  • 候选模型架构示意图如图 4 所示
  • 稀疏混合模型
    • GPT-3 (2020) 通过交错使用稠密注意力和局部带状稀疏注意力层,集成了一种混合注意力机制,其灵感来自 Sparse Transformer (2019)
    • 稠密注意力提供全上下文建模,而稀疏层则采用固定或跨步模式来减少被关注的 Token 数量
    • 这种设计使得 GPT-3 能够在 2048 个 Token 的固定上下文窗口内高效扩展到大规模模型,平衡了建模能力和计算效率
  • 线性-全注意力混合模型
    • Jamba (2024) 和 MiniMax-01 (2025) 结合了线性注意力和全注意力层,以在吞吐量和表达力之间实现高效的权衡
    • MiniMax-01 在大多数层中使用 Lightning Attention,并每八层插入一次基于 Softmax 的全注意力
    • Jamba 采用了相似的比例,在每八层的 Mamba 块中插入一个 Transformer 层
    • 两者都通过限制计算密集的全注意力的使用,实现了更快的解码和改善的长序列性能
  • 局部-全注意力混合模型
    • Gemma 3 (2025)、Command A (2025) 和 LLaMA-4-Maverick (2025) 在局部和全局注意力层之间交替使用,其共享的设计理念是稀疏地使用全局层(例如,每 4-6 层一次)以提升效率
    • 虽然局部层采用滑动窗口模式,但关键区别在于位置编码策略
    • Gemma 3 调制 RoPE 的基础频率——为局部层分配 10K,为全局层分配 1M(以更好地捕获长距离依赖关系)
    • Command A 和 LLaMA-4-Maverick 混合了基于 RoPE 的局部层与完全省略位置嵌入的全注意力层,从而实现了更强的长序列性能
  • 先进混合模型
    • Character.AI (2024) 将滑动窗口的局部注意力与每六层应用一次的稀疏全局注意力层交错使用
    • 特别是,它们在多个非相邻层之间复用全局注意力层的键值表示
    • 这种 KV 共享机制能以减少的内存和延迟开销实现高效的长上下文处理
  • YOCO (2024) 和 Phi-4-mini-flash (2025) 采用了一种双解码器架构,将预填充阶段和生成阶段分离开来
    • 自解码器在预填充和生成中都使用 RetNet 和滑动窗口注意力等线性注意力机制,而交叉解码器仅在生成期间激活
    • 整个过程中使用单层全局 KV 缓存,实现了线性时间的预填充和高效的解码,同时 GPU 内存消耗最小
  • In summary,这些最新进展强调了混合注意力机制以在不同计算约束和序列长度下实现平衡性能的趋势。每种架构都独特地贡献了关于如何有效结合局部细节管理与全局上下文整合的见解,从而为未来注意力机制的发展提供了有价值的框架

Outlook

  • 本综述全面概述了高效注意力机制,重点关注其算法基础、实际实现以及在大规模预训练语言模型中的集成
  • 通过将线性和稀疏注意力分类为明确定义的范式,论文识别了实现可扩展性、计算效率和长上下文能力的关键设计原则
  • 论文还分析了这些机制在最先进模型中如何部署,无论是作为独立架构还是作为平衡局部和全局计算的混合设计的一部分
  • 展望未来,论文强调几个预计将塑造该领域未来研究的关键方向:
  • 对混合模型的架构理解
    • 虽然先前关于线性注意力的工作主要集中于独立的线性架构,但混合模型通常通过结合现成的线性注意力模块与稠密或局部组件来构建
      • 但更强的线性主干是否直接转化为改进的混合性能尚不清楚
    • 未来的工作应将混合模型作为一个独特的架构类别来研究,试图理解它们的组成、相互作用效应和优化动态
  • 无损稀疏注意力与扩展上下文
    • 稀疏注意力仍然受到精度和计算增益之间权衡的挑战。完全训练的稀疏模型通常性能不如稠密模型,而训练后稀疏近似则由于缺乏端到端训练而面临限制
    • 一个主要的研究前沿在于开发能够保持稠密注意力的表达力和精度,同时扩展到更长上下文的稀疏注意力机制
    • Besides,稀疏预算与上下文长度之间的关系尚不明确,固定的 top-k 方案在序列更长时可能会退化,这需要更具适应性的策略
  • 对稀疏和混合注意力的机制性洞见
    • 实证研究反复证明,混合注意力模型可以用更少的注意力计算匹配甚至超越稠密模型,但其有效性的根本原因仍未得到充分探索
    • 此外,研究在合成基准测试中表现良好的稀疏模式是否适用于现实世界任务,以及描述基于稀疏性的泛化极限,尤为重要
  • 随着基于注意力的模型不断发展,论文预计架构创新、理论洞见和硬件感知设计之间将进一步融合
  • 作者希望本综述能为未来高效、高性能语言建模系统的研究奠定坚实的基础

NLP——Gated-Delta-Net

注:本文包含 AI 辅助创作

  • 参考链接:
    • 原始文档:(Gated DeltaNet)Gated Delta Networks: Improving Mamba2 with Delta Rule, ICLR 2025, NVIDIA
    • GitHub:github.com/NVlabs/GatedDeltaNet

Paper Summary

  • 整体总结:
    • 本文提出了一种新的框架:Gated DeltaNet
      • vs Mamba2:能够实现更好的键值关联学习
      • vs DeltaNet:具有更强的自适应内存清除能力
  • 背景 & 问题:
    • 线性 Transformer (Linear Transformers) 作为标准 Transformer 的高效替代方案获得了关注,但它们在检索和长上下文任务中的性能有限
    • 为了解决这些限制,最近的工作探索了两种不同的机制:
      • 用于自适应内存控制的门控 (gating for adaptive memory control)
      • 用于精确内存修改的 Delta 更新规则 (delta update rule for precise memory modifications)
    • 论文观察到这些机制是互补的,门控支持快速内存擦除,而 Delta 规则促进定向更新
      • 基于这一见解,论文引入了门控 Delta 规则 (gated delta rule),并开发了一种针对现代硬件优化的并行训练算法
  • 论文提出新的架构 Gated DeltaNet
    • 在包括语言建模、常识推理、上下文检索、长度外推和长上下文理解在内的多个基准测试中,超越了 Mamba2 和 DeltaNet 等现有模型
  • 作者通过开发将 Gated DeltaNet 层与滑动窗口注意力 (sliding window attention) 或 Mamba2 层相结合的混合架构,进一步提升了性能,实现了改进的训练效率和卓越的任务性能

Introduction and Discussion

  • Transformer 架构显著提升了 LLM 的能力,由于其有效的注意力机制,在各种任务上展现出卓越的性能
    • 该机制在精确序列建模方面表现出色,并在训练期间利用了现代 GPU 的并行处理能力
    • 但自注意力 (self-attention) 组件的计算复杂度随序列长度呈二次方增长,导致巨大的计算需求,给训练和推理都带来了挑战
  • 为了缓解这些问题,研究人员探索了诸如线性 Transformer (2020a) 等替代方案,它们用基于核化点积的线性注意力 (kernelized dot-product-based linear attention) 取代了传统的基于 softmax 的注意力,通过将其重构为具有矩阵值状态的线性 RNN,显著减少了推理期间的内存需求
  • 虽然早期版本的线性 Transformer 在语言建模任务中表现不如标准 Transformer,但最近的增强已经显示出有前景的改进
    • 例如结合类似于 LSTM 中的数据依赖门控机制,以 GLA (2024a) 和 Mamba2 (2024a) 等模型为例
  • 然而,在管理长序列信息方面仍然存在挑战,特别是在上下文检索任务中,传统 Transformer 仍保持其优势 (2023a; 2024;)
  • 这种现象并不令人惊讶:
    • 线性 Transformer 可以被解释为实现了一种基于外积 (outer-product) 的键值关联记忆,让人联想到张量积表示 (1990)
    • 但它们可以存储的正交键值对的数量受到模型维度的限制
      • 当序列长度超过这个维度时,“记忆碰撞 (memory collisions)”将不可避免,阻碍精确检索 (2021a)
  • Mamba2 通过引入一个简单的门控更新规则来解决这个限制:
    $$ \mathbf{S}_{t}=\alpha_{t}\mathbf{S}_{t-1}+\boldsymbol{v}_{t}\boldsymbol{k}^{\mathrm{T} }_{t}$$
    • 该规则在每个时间步通过一个动态比率 \(\alpha_t \in (0,1)\) 统一衰减所有键值关联
  • 但这种方法没有考虑不同键值关联的重要性差异,可能导致内存利用效率低下
    • 如果模型需要忘记一个特定的键值关联,所有键值关联都会被同等程度地遗忘 ,使得这个过程缺乏针对性和效率
  • 相比之下,采用 Delta 规则 (1960) 的线性 Transformer,即 DeltaNet (2021a; 2024b),通过(软性地)用传入的新键值对替换旧的键值对来选择性更新记忆
    • 这种方法在上下文检索的合成基准测试中展示了令人印象深刻的性能
    • 但由于这个过程((一次只修改一个键值对)),模型缺乏快速清除过时或无关信息的能力 ,尤其是在需要擦除先前数据的上下文切换期间
    • 因此,人们发现 DeltaNet 在现实世界任务中表现一般 (2024b),这很可能是因为缺乏强大的内存清除机制
  • 认识到门控更新规则和 Delta 规则在内存管理方面的互补优势,论文提出了门控 Delta 规则 (gated delta rule)
    • 这是一种简单直观的机制,结合了两种方法
    • 这个统一的规则实现了灵活的内存控制:
      • 可以通过设置 \(\alpha_{t}\to 0\) 来迅速清除内存
      • 同时可以通过设置 \(\alpha_{t}\to 1\) 来选择性更新特定内容而不影响其他信息(有效地切换到纯 Delta 规则)
  • 剩下的挑战在于以硬件高效的方式实现门控 Delta 规则
    • 基于 (2024b) 使用 WY 表示 (1985) 并行化 Delta 规则计算的高效算法,论文仔细扩展了他们的方法以纳入门控项
    • 论文的扩展保留了分块并行 (chunkwise parallelism) 的优势 (2022a; 2023a; 2024a),实现了硬件高效的训练
  • 论文最终的架构 Gated DeltaNet,在一套全面的基准测试中,包括语言建模、常识推理、上下文检索、长度外推和长上下文理解,持续优于 Mamba2 和 DeltaNet
  • 基于这些结果,作者还开发了混合架构,策略性地将 Gated DeltaNet 层与滑动窗口注意力或 Mamba2 层相结合,进一步提升了训练效率和模型性能

Preliminary

Mamba2:带衰减的线性注意力 (Mamba2: Linear Attention with decay)

  • 众所周知,线性 Transformer (2020a) 在排除归一化和查询/键激活的情况下,可以表述为以下线性递归:
    $$
    \begin{align}
    \mathbf{S}_{t}&=\mathbf{S}_{t-1}+\boldsymbol{v}_{t}\boldsymbol{k}_{t}^{\intercal} \in\mathbb{R}^{d_{v}\times d_{k} },\\
    \boldsymbol{o}_{t}&=\mathbf{S}_{t}\boldsymbol{q}_ {t}\in\mathbb{R}^{d_{v} }
    \end{align}
    $$
    • 其中 \(d_{k}\) 和 \(d_{v}\) 分别代表查询/键 (query/key) 和值 (value) 的(头)维度
  • 通过展开递归,我们可以将其表示为向量形式(左)和矩阵形式(右)如下:
    $$
    \begin{align}
    \boldsymbol{o}_{t}&=\sum_{i=1}^{t}(\boldsymbol{v}_{i}\boldsymbol{k}_{i}^{\intercal})\boldsymbol{q }_{t}=\sum_{i=1}^{t}\boldsymbol{v}_{i}(\boldsymbol{k}_{i}^{\intercal}\boldsymbol{q}_{t})\in\mathbb{R}^{d_{v} },\\
    \mathbf{O}&=(\mathbf{Q}\mathbf{K}^{\intercal}\odot\mathbf{M}) \mathbf{V}\in\mathbb{R}^{L\times d_{v} }
    \end{align}
    $$
    • 其中 \(L\) 是序列长度,\(\mathbf{M}\in\mathbb{R}^{L\times L}\) 是由 \(\mathbf{M}_{ij}=0\)(当 \(i< j\))和 \(1\)(其他情况)定义的因果掩码 (causal mask)
  • 然而,这种普通的线性注意力在语言建模中表现远不如 Transformer
    • 理解:本质上 \(\sum_{i=1}^{t}\boldsymbol{v}_{i}(\boldsymbol{k}_{i}^{\intercal}\boldsymbol{q}_{t})\in\mathbb{R}^{d_{v} }\) 也有了一定的按照 Q 和 K 的相似度对 V 进行加权的思想,但这里主要差异在于 Transformer 是 Softmax 的 Attention 权重:
      $$Attention(\boldsymbol{Q},\boldsymbol{K},\boldsymbol{V}) = softmax\left(\frac{\boldsymbol{Q}\boldsymbol{K}^{\top}}{\sqrt{d_k}}\right)\boldsymbol{V}$$
    • 理解:线性 Attention 和 Softmax Attention 都是 QK 内积越大,V 权重越大,但两者有本质区别:
      • 线性 Attention 未实现归一化,仅仅累加所有 Token 的 V,理论上会导致越靠后的 Token,方差是越大的
      • Softmax Attention 的权重是 \(e^{qk}\) 加权归一化,本质与线性归一化是不同的
      • 问题:如果线性 Attention 中使用 \(e^{qk}\) 作为累加,是否基本上可以实践 Softmax 的等价实现?
        • 回答:不可以,因为 Softmax Attention 中的 权重是 \(e^{qk}\),而线性 Attention 累加的对象是 \(kv\),重点:即使使用 \(e^{kv}\) 累加,累加对象也不同,反而导致含义变了!线性 Attention 的形式导致了他们无法实现 Softmax Attention 这样的 \(e^{qk}\) 加权平均
  • 为了解决这个问题,通常添加一个衰减项来遗忘历史信息
    • 这里论文以 Mamba2 (2024a) 为例,它可以表示为以下线性递归(取决于具体的参数化):
      $$
      \begin{align}
      \mathbf{S}_{t}&=\alpha_{t}\mathbf{S}_{t-1}+\boldsymbol{v}_{t}\boldsymbol{k}_{t}^ {\intercal},\\
      \boldsymbol{o}_{t}&=\mathbf{S}_{t}\boldsymbol{q}_{t}
      \end{align}
      $$
    • 其中 \(\alpha_{t}\in(0,1)\) 是一个数据依赖的标量值衰减项,随 \(t\) 变化
  • 定义累积衰减乘积
    $$\gamma_{j}=\prod_{i=1}^{j}\alpha_{i}$$
  • 并通过展开递归,我们可以将结果表示为向量形式(左)和矩阵并行形式(右):
    $$
    \begin{align}
    \boldsymbol{o}_{t}&=\sum_{i=1}^{t}\left(\frac{\gamma_{t} }{\gamma_{i} }\boldsymbol{v }_{i}\boldsymbol{k}_{i}^{\intercal}\right)\boldsymbol{q}_{t}=\sum_{i=1}^{t}\boldsymbol{v}_{i}\left( \frac{\gamma_{t} }{\gamma_{i} }\boldsymbol{k}_{i}^{\intercal}\boldsymbol{q}_{t}\right),\\
    \mathbf{O}&=((\mathbf{Q}\mathbf{K}^{\intercal})\odot\Gamma),\mathbf{V}
    \end{align}
    $$
    • 这里,\(\Gamma\in\mathbb{R}^{L\times L}\) 是一个衰减感知的因果掩码,其中 \(\Gamma_{ij}=\frac{\gamma_{i} }{\gamma_{j} }\)(如果 \(i\geq j\)),否则 \(\Gamma_{ij}=0\)
  • 这种并行形式和递归形式之间的等价性也被称为 状态空间对偶性 (state space duality, SSD) (2024a)
    • 这种递归结构也出现在其他几种架构中,包括 Gated RFA (2021)、xLSTM (2024) 和 Gated RetNet (2023a)
    • 当 \(\gamma_{t}\) 与数据无关时(data-independent),该公式简化为 RetNet (2023a) 和 Lightning-Attention (2024a)
  • 此外,如果 \(\gamma_{t}\) 扩展为矩阵值而非标量值,当使用外积结构参数化时,高效的训练算法仍然是可能的,正如 (2024a) 所展示并被 (2024b;2024;2025 等) 所使用的 分块训练 (Chunkwise training)
    • 但递归形式和并行形式对于高效训练来说都不是理想的 (2022a; 2024a),这促使了使用分块并行形式 (2022a; 2023a) 进行硬件高效的线性时间训练,如下所述
  • 总结来说,分块并行形式将输入和输出分割成几个大小为 \(C\) 的块 (chunk),并根据前一个块的最终状态以及当前块的查询/键/值块来计算每个块的输出
    • 遵循 (2023a); (2024a) 的符号,论文以查询块 \(\boldsymbol{q}\) 为例
  • 论文将
    • \(\mathbf{Q}_{[t]}:={\boldsymbol{q} }_{tC+1:(t+1)C+1}\) 表示为块 \(t\) 的查询块
    • \({\boldsymbol{q} }_{[t]}^{r}:={\boldsymbol{q} }_{tC+r}\) 表示为块 \(t\) 内的第 \(r\) 个查询块
    • \(t\) 的初始状态定义为 \(\mathbf{S}_{[t]}:=\mathbf{S}_{[t]}^{0}=\mathbf{S}_{[t-1]}^{C}\)
  • 通过部分展开递归,论文有
    $$
    \begin{align}
    \mathbf{S}_{[t]}^{r}&=\mathbf{S}_{[t]}+\sum_{i=1}^{r}\boldsymbol{v}_{[t]}^{i}\boldsymbol{k}_{[t ]}^{i\tau}\in\mathbb{R}^{d_{v}\times d_{k} },\\
    \boldsymbol{\sigma}_{[t]}^{r}&=\mathbf{S }_{[t]}^{r}{\boldsymbol{q} }_{[t]}^{r}=\mathbf{S}_{[t]}{\boldsymbol{q} }_{[t]}^{r}+\sum_{i=1}^{r} \boldsymbol{v}_{[t]}^{i}\left(\boldsymbol{k}_{[t]}^{i\tau}{\boldsymbol{q} }_{[t]}^{r}\right)\in\mathbb{R}^ {d_{v} }
    \end{align}
    $$
  • 等价地,以矩阵形式表示:
    $$
    \begin{align}
    \mathbf{S}_{[t+1]}&=\mathbf{S}_{[t]}+\mathbf{V}_{[t]}\mathbf{K}_{[t]}^{\tau} \in\mathbb{R}^{d_{v}\times d_{k} },\\
    \mathbf{O}_{[t]}&=\mathbf{Q}_{[t]}{ \mathbf{S} }_{[t]}^{\tau}+\left(\mathbf{Q}_{[t]}\mathbf{K}_{[t]}^{\tau}\odot \mathbf{M}\right)\mathbf{V}_{[t]}\in\mathbb{R}^{C\times d_{v} }
    \end{align}
    $$
    • 其中 \(\mathbf{M}\in\mathbb{R}^{C\times C}\) 是因果掩码
    • 上述等式富含矩阵乘法 (matmuls),允许基于张量核心 (tensor-core) 的硬件优化
  • 这个分块算法可以轻松扩展到带衰减的线性注意力:
    $$
    \begin{align}
    \mathbf{S}_{[t+1]}&=\overrightarrow{\mathbf{S}_{[t]} }+\mathbf{V}_{[t]}^{\tau} \overrightarrow{\mathbf{K}_{[t]} }\in\mathbb{R}^{d_{v}\times d_{k} },\\
    \mathbf {O}_{[t]}&=\overleftarrow{\mathbf{Q}_{[t]}\mathbf{S}_{[t]}^{\tau} }+\left( \mathbf{Q}_{[t]}\mathbf{K}_{[t]}^{\tau}\odot\Gamma_{[t]}\right)\mathbf{V}_{[t ]}\in\mathbb{R}^{C\times d_{v} }
    \end{align} \tag{1}
    $$
    • 其中有
      $$(\Gamma_{[t]})_{ij}=\frac{\gamma_{[t]}^{i} }{\gamma_{[t]}^{j} },\gamma_{[t]}^{j}= \prod_{j=tC+1}^{tC+j}\alpha_{j} $$
      • 注:这里论文稍微滥用了 \(\gamma\) 的符号来表示每个块的累积乘积(分别从每个块的第一个位置开始),而不是整个序列
      • 这里论文使用左箭头 (\(\overset{\leftarrow}{\cdot}\)) 或右箭头 (\(\overset{\rightarrow}{\cdot}\)) 分别表示衰减到每个块第一个位置和最后一个位置的变量,
        $$
        \begin{align}
        \overleftarrow{ {\boldsymbol{q} }_{[t]}^{r} }&=\gamma_{[t]}^{r}{\boldsymbol{q} }_{[t]}^{r} \text{ 将每个向量衰减到块 t 的第一个位置 (decaying each vector to the first position of chunk t)}\\
        \overleftarrow{ {\boldsymbol{k} }_{[t]}^{r} }&=\frac{\gamma_{[t]}^{C} }{ \gamma_{[t]}^{c} }\boldsymbol{k}_{[t]}^{r} \text{ 将每个向量衰减到块 t 的最后一个位置 (decaying each vector to the last position of chunk t)} \\
        \overrightarrow{\mathbf{S}_{[t]} }&=\gamma_{[t]}^{C}\mathbf{S}_{[t]} \text{ 在整个块 t 上衰减状态矩阵 (decaying the state matrix over the entire chunk t)} \tag{2}
        \end{align}
        $$
        • 其他变量(例如 \(\overrightarrow{\boldsymbol{v} }\))也类似
  • Mamba2 中引入的 SSD 分解算法在很大程度上等同于这种分块算法
    • 对于更通用的方法, (2024a) 提出了一种扩展的分块算法,用于线性注意力,该算法结合了细粒度的衰减机制

Delta Networks: Linear Attention with Delta Rule

  • Delta 更新规则(Delta Update Rule) (1960; 2021a) 动态地擦除与当前输入键 (\(\boldsymbol{k}_{t}\)) 关联的旧值 (\(\boldsymbol{v}_{t}^{\text{old} }\)) ,并写入一个新值 (\(\boldsymbol{v}_{t}^{\text{new} }\)) ,该新值是基于“写入强度” \(\beta_{t}\in(0,1)\) 的当前输入值和旧值的线性组合 (可以将 \(\beta_{t}\in(0,2)\) 设置为允许负特征值,以解锁 DeltaNet 的状态跟踪能力 (2024; 2025))
    $$
    \begin{align}
    \mathbf{S}_{t}&=\mathbf{S}_{t-1}-\underbrace{(\mathbf{S}_{t-1}\boldsymbol{k}_{t})}_{\boldsymbol {v}_{t}^{\text{old} } }\boldsymbol{k}_{t}^{\top}+\underbrace{(\beta_{t}\boldsymbol{v}_{t}+(1-\beta_{t})\mathbf{S}_{t-1}\boldsymbol{k}_{t}))}_{\boldsymbol{v}_{t}^{\text{new} } }\boldsymbol{k}_{t}^{\top} \\
    &= \mathbf{S}_{t-1}\left(\mathbf{I}-\beta_{t}\boldsymbol{k}_{t}\boldsymbol{k}_{t}^{\top}\right)+ \beta_{t}\boldsymbol{v}_{t}\boldsymbol{k}_{t}^{\top}
    \end{align}
    $$
    • 如上所示,DeltaNet 实现了具有广义 Householder 转移矩阵 (\(\mathbf{I}-\beta_{t}\boldsymbol{k}_{t}\boldsymbol{k}_{t}^{\mathsf{T} }\)) 的一阶线性递归
    • 尽管在关联回忆和语言建模性能上表现出色 (2021a),但由于计算效率低下,DeltaNet 受到的关注有限,直到 (2024b) 引入了一种硬件高效的分块训练算法,详情如下
  • 分块并行形式 (Chunkwise parallel form)。通过部分展开递归,论文有
    $$\mathbf{S}_{[t]}^{r}=\mathbf{S}_{[t]}\underbrace{\left(\prod_{i=1}^{r} \mathbf{I}-\beta_{[t]}^{i}\boldsymbol{k}_{[t]}^{i}\boldsymbol{k}_{[t]}^{i\mathsf{T} }\right)}_{:= \mathbf{P}_{[t]}^{r} }+\underbrace{\sum_{i=1}^{r}\left(\beta_{[t]}^{i}\boldsymbol{v}_{[t ]}^{i}\boldsymbol{k}_{[t]}^{i\mathsf{T} }\prod_{j=i+1}^{r}\left(\mathbf{I}-\beta_{[t]}^{ j}\boldsymbol{k}_{[t]}^{j}\boldsymbol{k}_{[t]}^{j\mathsf{T} }\right)\right)}_{:=\mathbf{H}_{[t]}^{r} } \tag{3}$$
  • 其中 \(\mathbf{P}_{[t]}^{j}\) 涉及广义 Householder 矩阵的累积乘积,可以通过经典的 WY 表示 (1985) 进行优化:
    $$\mathbf{P}_{[t]}^{r}=\mathbf{I}-\sum_{i=1}^{r}\mathbf{w}_{[t]}^{i}\boldsymbol{k}_{[t]}^{ i\mathsf{T} }\in\mathbb{R}^{d_{k}\times d_{k} }\qquad\mathbf{w}_{[t]}^{r}=\beta_{ [t]}^{r}\left(\boldsymbol{k}_{[t]}^{r}-\sum_{i=1}^{r-1}\left(\mathbf{w}_{[t]}^{i}(\boldsymbol{k}_ {[t]}^{i\mathsf{T} }\boldsymbol{k}_{[t]}^{r})\right)\right)\in\mathbb{R}^{d_{k} } \tag{4}$$
  • 同样,\(\mathbf{H}_{[t]}^{r}\) 可以表示为:
    $$\mathbf{H}_{[t]}^{r}=\sum_{i=1}^{r}\mathbf{u}_{[t]}^{i}\boldsymbol{k}_{[t]}^{i\mathsf{T } }\in\mathbb{R}^{d_{v}\times d_{k} }\qquad\mathbf{u}_{[t]}^{r}=\beta_{[t]}^{r} \left(\boldsymbol{v}_{[t]}^{r}-\sum_{i=1}^{r-1}\left(\mathbf{u}_{[t]}^{i}(\boldsymbol{k}_{[t]}^{ i\mathsf{T} }\boldsymbol{k}_{[t]}^{r})\right)\right)\in\mathbb{R}^{d_{v} } \tag{5}$$
  • 并以矩阵形式表示:\(\mathbf{P}_{[t]}=\mathbf{I}-\mathbf{W}_{[t]}^{\top}\mathbf{K}_{[t]}\in\mathbb{R }^{d_{k}\times d_{k} }\),\(\mathbf{H}_{[t]}=\mathbf{U}_{[t]}^{\top}\mathbf{K}_{[t]}\in\mathbb{R}^{d_{v} \times d_{k} }\)。通过使用 UT 变换 (2006),我们可以进一步将 \(\mathbf{W}\) 和 \(\mathbf{U}\) 写成矩阵形式:
    $$\mathbf{T}_{[t]} =\left[\mathbf{I}+\text{strictLower}\left(\text{diag}(\beta_{[t]} )\mathbf{K}_{[t]}\mathbf{K}_{[t]}^{\mathsf{T} }\right)\right]^{-1}\text{ diag}\left(\beta_{[t]}\right)\in\mathbb{R}^{C\times C} \\
    \mathbf{W}_{[t]} =\mathbf{T}_{[t]}\mathbf{K}_{[t]}\in\mathbb{R}^{C\times d_{k} }, \qquad\mathbf{U}_{[t]}=\mathbf{T}_{[t]}\mathbf{V}_{[t]}\in\mathbb{R}^{C \times d_{v} }\tag{6-7}$$
  • 将这些代回方程 3,得到了一个硬件高效的 DeltaNet 分块算法,该算法利用了矩阵乘法,实现了基于张量核心的 GPU 优化:
    $$\mathbf{S}_{[t+1]} =\mathbf{S}_{[t]}\mathbf{P}_{[t]}+\mathbf{H}_{[t]}=\mathbf{S}_{[t ]}+\left(\mathbf{U}_{[t]}-\mathbf{W}_{[t]}\mathbf{S}_{[t]}^{\mathsf{T} }\right)^ {\mathsf{T} }\mathbf{K}_{[t]} \in\mathbb{R}^{d_{v}\times d_{k} } \\
    \mathbf{O}_{[t]} =\mathbf{Q}_{[t]}\mathbf{S}_{[t]}^{\mathsf{T} }+(\mathbf{Q}_{[t]} \mathbf{K}_{[t]}^{\mathsf{T} }\odot\mathbf{M})\left(\mathbf{U}_{[t]}-\mathbf{W }_{[t]}\mathbf{S}_{[t]}^{\mathsf{T} }\right) \in\mathbb{R}^{C\times d_{v} } \tag{8-9}$$

Gated Delta Networks

Formulation: Gated Delta Rule

  • 论文提出的门控 Delta 规则简单而有效:
    $$\mathbf{S}_{t}=\mathbf{S}_{t-1}\left(\alpha_{t}(\mathbf{I}-\beta_{t}\boldsymbol{k}_{t }\boldsymbol{k}_{t}^{\mathsf{T} })\right)+\beta_{t}\boldsymbol{v}_{t}\boldsymbol{k}_{t}^{\mathsf{T} } \tag{10}$$
    • 其中数据依赖的门控项 \(\alpha_{t}\in(0,1)\) 控制状态衰减
    • 这个公式统一了门控机制和 Delta 规则的优势:门控项支持自适应内存管理,而 Delta 更新结构促进有效的键值关联学习
  • 论文通过 Liu 等 (2024) 引入的在线学习框架的视角,对门控 Delta 规则进行了正式分析
    • 在这个框架中,循环状态更新作为在线学习问题的闭式解出现,如表 1 所示
    • 最近的线性 RNN 架构通常在其在线学习目标中包含一个正则化项,以防止状态偏离先前的值,从而实现记忆保留
      • 但当状态被信息饱和时,这种保留机制会变得有问题。在这种情况下,每个状态将对多个信息片段进行编码,使得精确检索变得困难
    • 为了解决这个限制,Mamba2 和 Gated DeltaNet 引入了一个自适应缩放因子 \(\alpha_{t}\),它放松了正则化项,允许 \(\mathbf{S}_{t}\) 和 \(\mathbf{S}_{t-1}\) 之间的受控偏差
      • 这个修改通过选择性遗忘实现了动态内存管理,这在过滤无关信息时可能很有用(见 章节3.2)
  • 另一方面,线性注意力 (Linear Attention, LA) 和 Mamba2 使用简单的负内积损失 -\(\langle\mathbf{S}_{t}\boldsymbol{k}_{t},\boldsymbol{v}_{t}\rangle\),而 Longhorn (2024) 使用更具表达力的在线回归目标 \(|\mathbf{S}_{t}\boldsymbol{k}_{t}-\boldsymbol{v}_{t}|^{2}\) 来更好地建模键值关联。由此产生的 Longhorn 更新规则与 Delta 更新规则非常相似,这表明(门控)Delta 规则在上下文关联回忆方面优于 Mamba2
    • Longhorn 更新规则与 Delta 更新规则理论上的区别在于优化方法:Longhorn 使用隐式在线学习 (2010) 来推导闭式的全局最优更新,而 DeltaNet 通过一步显式梯度下降来优化相同的目标,正如 (2024) 所指出的
  • 从快速权重编程 (fast weight programming) (2022a)、测试时训练 (test-time training) (2024a) 和回归 (2025) 的角度来看,隐藏状态 \(\mathbf{S}\) 可以被解释为一个(快速)权重矩阵,Delta 规则通过测试时随机梯度下降 (stochastic gradient descent, SGD) 优化在线回归目标 \(\mathcal{L}(\mathbf{S}_{t})=\frac{1}{2}|\mathbf{S}_{t}\boldsymbol{k}_{t}-\boldsymbol{v}_{t}|^{2}\):
    $$\mathbf{S}_{t+1}=\mathbf{S}_{t}-\beta_{t}\nabla\mathcal{L}(\mathbf{S}_{t})= \mathbf{S}_{t}-\beta_{t}(\mathbf{S}_{t}\boldsymbol{k}_{t}-\boldsymbol{v}_{t})\boldsymbol{k}_{t}^{\top}= \mathbf{S}_{t}\left(\mathbf{I}-\beta_{t}\boldsymbol{k}_{t}\boldsymbol{k}_{t}^{\top}\right)+\beta_{t}\boldsymbol{v}_{t}\boldsymbol{k}_{t}^{\top}$$
    • 其中 \(\beta_{t}\) 代表(自适应)学习率。从这个角度来看,门控 Delta 规则可以被视为将自适应权重衰减项 \(\alpha_{t}\) 纳入 SGD 更新中,这是一种在深度学习中广泛使用的技术 (1991; 2023)
    • 同时,Titans (2024) 证明了在 RNN 测试时 SGD 更新中结合权重衰减机制的有效性

Case study: Single Needle in a Haystack, S-NIAH,大海捞针

  • 为了更好地理解 Delta 规则和门控规则之间的互补优势,论文提供了一个关于来自 RULER (2024) 的“大海捞针”基准测试套件的案例研究,其中一个键值对充当“大海”(上下文)中的“针”,模型必须在给定键时回忆起值
  • 表 2 展示了结果,论文得出三个主要观察:
    • 衰减损害记忆保留 (Decay hurts memory retention)
      • 在最简单的 S-NIAH-1 设置中,具有重复的合成上下文,模型记忆的信息最少,测试长期保留能力
      • DeltaNet 在所有序列长度上都实现了接近完美的性能
      • Mamba2 在超过 2K 序列后性能显著下降,因为它衰减历史信息太快,而 Gated DeltaNet 的下降不那么严重,这得益于使用了 Delta 规则
    • 门控促进过滤 (Gating facilitates filtering)
      • 在具有真实世界文章上下文的 S-NIAH-2/3 中,模型存储所有潜在相关信息,测试高效的内存管理
      • 在固定状态大小的情况下,缺乏清除会导致内存碰撞,信息变得叠加且无法区分
      • DeltaNet 的性能在较长序列时显著下降,原因是内存清除能力差
      • Mamba2 和 Gated DeltaNet 通过过滤无关信息的门控机制保持了更好的性能
    • Delta 规则有助于记忆 (Delta rule helps memorization)
      • 在 S-NIAH-3 中,值从数字变为 UUID,测试复杂模式记忆
      • Mamba2 的性能迅速下降,而 Gated DeltaNet 表现更好,验证了 Delta 规则确实具有更好的记忆能力

Algorithm: Hardware-efficient Chunkwise training

  • 在本小节中,论文推导出用于训练 Gated DeltaNet 的硬件高效分块算法。通过部分展开方程 10 中的递归,论文有
    $$\mathbf{S}_{[t]}^{r}=\underbrace{\mathbf{S}_{[t]}\left(\prod_{i=1}^{ r}\alpha_{[t]}^{i}\left(\mathbf{I}-\beta_{[t]}^{i}\boldsymbol{k}_{[t]}^{i} \boldsymbol{k}_{[t]}^{i\mathsf{T} }\right)\right)}_{\text{:=F}_{[t]}^{r} }+\underbrace {\sum_{i=1}^{r}\left(\beta_{[t]}^{i}\boldsymbol{v}_{[t]}^{i}\boldsymbol{k}_{[t]} ^{i\mathsf{T} }\prod_{j=i+1}^{r}\alpha_{[t]}^{j}\left(\mathbf{I}-\beta_{[t]}^{j }\boldsymbol{k}_{[t]}^{j}\boldsymbol{k}_{[t]}^{j\mathsf{T} }\right)\right)}_{ \text{:=G}_{[t]}^{r} }$$
    • 很容易看出 \(\mathbf{F}_{[t]}^{r}=\gamma_{[t]}^{r}\mathrm{P}_{[t]}^{r}=\hat{\overline{\mathbf {P} }_{[t]}^{r} }\)
    • 至于 \(\mathbf{G}_{[t]}^{r}\),论文调整方程 5 如下:
      $$\mathbf{G}_{[t]}^{r}=\sum_{i=1}^{r}\frac{\gamma_{[t]}^{r} }{\gamma_{[t]}^{i} }\tilde{\mathbf{u} }_{[t]}^{i}\boldsymbol{k}_{[t]}^{i\mathsf{T} }\in \mathbb{R}^{d_{v}\times d_{k} }\qquad\tilde{\mathbf{u} }_{[t]}^{r}=\beta_{[t]}^{r }\left(\boldsymbol{v}_{[t]}^{r}-\sum_{i=1}^{r-1}\left(\tilde{\mathbf{u} }_{[t]}^ {i}(\frac{\gamma_{[t]}^{r} }{\gamma_{[t]}^{i} }\boldsymbol{k}_{[t]}^{i\mathsf{T } }\boldsymbol{k}_{[t]}^{r})\right)\right)\in\mathbb{R}^{d_{v} }$$
      • (证明见附录 A)
    • 通过 UT 变换,论文得到矩阵形式:
      $$\widetilde{\mathbf{U} }_{[t]}^{-}=\left[\mathbf{I}+\text{strictLower}\left( \operatorname{diag}\left(\beta_{[t]}\right)(\Gamma_{[t]}\odot\mathbf{K}_{[t]} \mathbf{K}_{[t]}^{\mathsf{T} })\right)\right]^{-1}\operatorname{diag}\left( \beta_{[t]}\right)\mathbf{V}_{[t]}\qquad\in\mathbb{R}^{C\times d_{v} }$$
  • 类似于 Mamba2 扩展线性注意力的方式(方程 1),我们可以调整 DeltaNet 的分块算法(方程 8-9)用于 Gated DeltaNet,以实现硬件高效训练,如下所示:
    $$
    \begin{align}
    \mathbf{S}_{[t+1]}&=\overrightarrow{\mathbf{S}_{[t]} }+\left( \overrightarrow{\mathbf{U} }_{[t]}-\overleftarrow{\mathbf{W} }_{[t]}\mathbf{S}_{[ t]}^{\mathsf{T} }\right)^{\mathsf{T} }\overrightarrow{\mathbf{K} }_{[t]} \in\mathbb{R}^{d_{v}\times d_{k} } \\
    \mathbf{O}_{[t]}&=\overleftarrow{\mathbf{O} }_{[t]}\mathbf{S}_{[t]} ^{\mathsf{T} }+\left(\mathbf{Q}_{[t]}\mathbf{K}_{[t]}^{\mathsf{T} }\odot \mathbf{M}\right)\left(\overrightarrow{\mathbf{U} }_{[t]}-\overleftarrow{ \mathbf{W} }_{[t]}\mathbf{S}_{[t]}^{\mathsf{T} }\right)\in\mathbb{R}^{C\times d_ {v} }
    \end{align}
    $$
    • 其中 \(\overleftarrow{\boldsymbol{q} }_{[t]}^{r}=\gamma_{[t]}^{r}\boldsymbol{q}_{[t]}^ {r}\), \(\overleftarrow{\mathbf{w} }_{[t]}^{r}=\gamma_{[t]}^{r}\mathbf{w}_{[t]}^{r}\), \(\overleftarrow{\boldsymbol{k} }_{[t]}^{r}=\frac{\gamma_{[t]}^{C} }{\gamma_{[t]} } \boldsymbol{k}_{[t]}^{r}\), 并且 \(\overrightarrow{\mathbf{S} }_{[t]}\neq\gamma_{[t]}^{C}\mathbf{S}_{[t]}\) 如同论文在方程 2 中的定义

Gated Delta Networks and Hybrid Models

  • Token 混合器块 (Token mixer block)
    • 基本的 Gated DeltaNet 遵循 Llama 的宏观架构,将 Token 混合器层与 SwiGLU MLP 层堆叠,但用门控 Delta 规则 Token 混合取代了自注意力
    • 图 1(右)显示了其块设计
      • 对于门控 Delta 规则(方程 10),查询、键和值 \(\{\boldsymbol{q},\boldsymbol{k},\boldsymbol{v}\}\) 通过线性投影、短卷积 (short convolution) 和 SiLU 生成,并对 \(\boldsymbol{q},\boldsymbol{k}\) 应用 L2 归一化以保持训练稳定性。\(\alpha,\beta\) 仅使用线性投影(论文对 \(\alpha\) 使用 Mamba2 的参数化,但为简洁起见省略了细节)
      • 遵循 Sun 等 (2023a),输出在应用输出投影之前通过归一化和门控处理
  • 混合模型 (Hybrid models)
    • 线性 Transformer 在建模局部偏移和比较方面存在局限性,并且其固定状态大小使得检索任务变得困难 (2023a)
    • 遵循最近的混合架构,如 Griffin (2024) 和 Samba (2024),论文将线性循环层与滑动窗口注意力 (sliding window attention, SWA) 相结合,产生了 GatedDeltaNet-H1
    • 论文还堆叠了 Mamba2、GatedDeltaNet 和 SWA,产生了 GatedDeltaNet-H2

Experiments

Setup

  • 论文的实验包括对最近最先进架构的全面比较,包括纯 Transformer 模型、基于 RNN 的方法和混合架构
  • 论文针对以下基线进行评估:RetNet (2023a)、HGRN2 (2024b)、Mamba (2023)、Mamba2 (2024a)、Samba (2024) 和 DeltaNet (2024b)
  • 为了公平比较,所有模型都在相同条件下训练,具有 1.3B 参数,使用从 FineWeb-Edu 数据集 (2024) 中采样的 100B Token
  • 论文使用 AdamW 优化器,峰值学习率为 4e-4,权重衰减为 0.1,梯度裁剪为 1.0
  • 学习率遵循余弦退火调度,具有 1B Token 的预热期 和 0.5M Token 的批次大小
  • 所有模型都使用词表为 32,000 的 Llama2 分词器
  • 对于序列建模,论文将训练长度设置为 4K Token ,Samba 和论文的混合模型使用 2K 的滑动窗口大小
  • 评估设置见附录 B.1,消融研究见附录 B.2

Common-sense reasoning

  • 在表 3 中,论文展示了具有 0.4B 和 1.3B 参数模型的语言建模困惑度以及在常识推理基准测试上的零样本准确率
  • Gated DeltaNet 在两个规模上都持续优于其他线性模型,包括 RetNet、HGRN2、Mamba、Mamba2 和 DeltaNet
  • 正如预期的那样,混合变体进一步提升了性能

In-context retrieval on real-world data

  • 表 4 展示了在 Arora 等 (2023a) 使用的真实世界回忆密集型任务上的结果
  • 正如预期的那样,线性循环模型与 Transformer 相比显示出显著的性能差距,而结合线性循环和注意力的混合模型在检索任务中优于纯注意力模型
  • 对于纯循环模型,尽管 DeltaNet 在合成的上下文检索任务上表现出色 (2024b),但其真实世界的检索性能落后于 Mamba2,这与论文在 S-NIAH-2 和 S-NIAH-3 中的观察一致(表 2)
  • Gated DeltaNet 由于其门控 Delta 规则,性能优于 DeltaNet 和 Mamba2,尽管改进幅度小于表 2
  • 论文将这种性能差距的缩小归因于未进行指令调优的小型语言模型容易产生重复错误,这些错误是这些任务中错误的主要来源(参见 Arora 等 (2023a, 附录 E))
  • 由于这个问题在很大程度上与更新规则的选择无关,因此模型之间的性能差异与表 2 相比不那么明显

Length extrapolation on long sequences

  • 如图 2 所示,论文评估了模型在六个长上下文基准测试中外推到长达 20K Token 序列的能力
    • 在 RNN 模型中,Gated DeltaNet 在所有任务中实现了最低的整体困惑度
    • 虽然论文在长度外推中观察到结果好坏参半,但 Gated DeltaNet 表现出相对更稳健的性能,表明其具有更好的内存管理能力
    • 混合模型通过利用注意力进行局部上下文建模,进一步改善了这一点,从而减轻了其循环组件在内存管理上的负担
    • 未来的工作将探索这些模型在更长序列上的能力

Long context understanding

  • 如表 5 所示,论文评估了模型在 LongBench (2023) 上的性能
  • 在循环模型中,Gated DeltaNet 显示出持续的优势,特别是在单文档问答、少样本上下文学习和代码任务中,分别展示了其在检索、上下文学习和状态跟踪方面的卓越能力

Throughput Comparison

  • 不同模型的训练吞吐量对比如图 3 所示
    • 正如论文的分析所示,论文提出的门控 delta 规则 (gated delta rule) 与原始 delta 规则相比仅引入了微小的开销,Gated DeltaNet 的吞吐量与 DeltaNet 基本相同
    • 由于它们具有更具表达力的转移矩阵 (transition matrices),两者都比 Mamba2 稍慢(约慢 2–3K tokens/sec)
  • 正如论文的分析所示,与原始 Delta 规则相比,提出的门控 Delta 规则仅引入了边际开销,Gated DeltaNet 实现了与 DeltaNet 基本相同的吞吐量
  • 由于它们具有更具表达力的转移矩阵,两者都比 Mamba2(2-3K Token /秒)稍慢
  • Transformer++ 在 2K 上下文窗口领域实现了最佳性能
    • 这得益于高度优化的 Flash-Attention-2 内核 (2023)
    • 因此,将 2K 窗口大小的滑动窗口注意力 (sliding window attention, SWA) 与其他令牌混合器 (token mixer) 相结合的混合方法,其吞吐量高于独立的混合器:Samba 优于 Mamba,而 Gated DeltaNet-H1 和 Gated DeltaNet-H2 优于 Gated DeltaNet
    • 值得注意的是,Gated DeltaNet-H1 在所有序列长度上均保持了可观的训练吞吐量,即使在短序列上也是如此

Related Work

Gated linear RNN

  • 大型线性循环语言模型因其训练和推理效率而备受关注
  • 线性循环神经网络领域已经从使用数据无关的衰减机制迅速发展为在更近期的架构中融入数据相关的衰减机制
    • 数据无关的衰减机制:例如 S4 (2022)、S5 (2023)、LRU (2023)、RWKV4/5 (2023) 和 RetNet (2023a) 等模型所例证
    • 数据相关的衰减机制:例如 HGRN1/2 (2023a; 2024b)、Mamba1/2 (2023; 2024a)、RWKV6 (2024)、GSA (2024)
  • 这一转变源于门控/遗忘机制(在 Mamba 中称为选择性机制)被证实的优势,这是一个源于门控循环神经网络文献 (2000) 的经典概念,其重要性一直被反复确认 (2015; 2018; 2023b; 2024b)
  • 现代遗忘门与传统设计(如 LSTM 中的遗忘门)的不同之处在于,它移除了对先前隐藏状态的依赖,仅依赖于输入数据
    • 这种修改使得在序列长度上能够实现高效的并行性 (2018; 2023b)
    • 缺乏遗忘门一直是 DeltaNet 的一个显著局限,而论文的门控扩展以一种自然、有效且硬件高效的方式弥补了这一差距
    • 论文也注意到最近的一项并行工作 RWKV-7 使用了类似的想法,但采用了更宽松的使用对角加低秩转移的形式化表示:
      $$\mathbf{S}_{t}=\mathbf{S}_{t-1}(\mathrm{diag}(\mathbf{d}_{t})-\mathbf{a}_{t}\mathbf{b}_{t}^{\top})+v_{t}\boldsymbol{k}_{t}^{\top}$$
    • 其中 \(\mathbf{d}_{t},\mathbf{a}_{t},\mathbf{b}_{t}\in\mathbb{R}^{d_{k} }\)
    • 分块算法可以类似地适用于这种情况,正如在 Flash Linear Attention (2024) 中所实现的那样

Delta rule

  • Delta 学习规则在记忆容量上表现出优于赫布学习规则 (1988; 1989),DeltaNet 利用了这一点,而线性 Transformer 则依赖于类赫布规则
    • 这种记忆容量优势在合成上下文学习任务中表现明显,并延伸到语言建模 (2021; 2024b)、强化学习 (2022b) 和图像生成 (2023)
    • (2024b) 将 delta 规则计算并行化,并证明了 DeltaNet 的数据相关的单位加低秩结构 (\(\mathbf{I}-\beta_{t}\boldsymbol{k}_{t}\boldsymbol{k}_{t}^{\top}\)) 比 Mamba2 的数据相关的对角矩阵 (\(\alpha_{\mathbf{I} }\)) 提供了更大的灵活性
    • 这种结构优势可能实现复杂的推理,包括正则语言识别 (2024; 2024) 和超越 TC’ 复杂度的状态跟踪 (2024),这对于编码和推理应用至关重要
  • 尽管有这些显著优势,delta 规则面临理论局限 (2023) 并且在真实世界数据集上表现中等 (2024b),表明仍有改进空间
    • 先前通过非线性循环 (2021, 2022a) 来增强表达力的尝试解决了一些局限,但牺牲了训练并行性,造成了性能-效率的权衡
    • 最近的工作提出了一些不损害并行性的增强方法,以获得更好的状态跟踪性能,包括使用负特征值 (2024) 和使用多个户主转移矩阵的乘积 (2025),这实现了高秩变换
    • 这些方法可以无缝应用于 Gated DeltaNet
  • 从(在线)学习目标的角度来看,替代的公式化可以进一步扩展表达力:
    • 非线性回归 (\(\mathcal{L}(\mathbf{S}_{t})=\frac{1}{2}||\boldsymbol{f}_{\mathbf{S}_{t} }(\boldsymbol{k}_{t})-\boldsymbol{v}_{t}||^{2}\)),如 TTT (2024a) 和 Titans (2024) 中那样,其中 \(\boldsymbol{f}_{\mathbf{S} }\) 是由 \(\mathbf{S}\) 参数化的非线性函数;
    • 或者考虑整个历史的回归 (\(\mathcal{L}(\mathbf{S}_{t})=\frac{1}{2}\sum_{i=1}^{d}||\mathbf{S}_{t}\boldsymbol{k}_{i}-\boldsymbol{v}_{t}||^{2}\)),如 Mesa 层 (von 2024) 中那样——类似于最小均方算法和递归最小二乘算法之间的区别
    • 然而,这些更具表达力的变体引入了非线性循环,并且需要变通方法,例如在处理完整个分块后才执行非线性更新(如在 TTT 和 Titans 中);或者近似非线性循环方法,如 (2024; 2024; 2025)

Hybrid models

  • 在这项工作中,论文探索了在层间交错混合注意力层,这在诸如 MiniMax-01 (2025) 和 Hybrid Mamba2-Attention (2024) 中常用
  • 研究在单个层内混合线性/softmax 注意力也很有趣 (2022a; 2024; 2025)

NLP——LLM对齐微调-SDPO

注:本文包含 AI 辅助创作

  • 参考链接:
    • 原始论文:(SDPO)Reinforcement Learning via Self-Distillation, 20260128 & 20260216, ETH Zurich & Max Planck Institute for Intelligent Systems & MIT & Stanford

Paper Summary

  • SDPO 整体总结:
    • RLVR 方法仅从每次尝试的标量结果奖励中学习,存在信用分配瓶颈
      • 许多可验证环境实际上提供了丰富的文本反馈,比如运行时错误或评判员评估,这些反馈解释了尝试失败的原因
      • 注:
        • 将 RLVR 描述为仅结果奖励的方法也不一定准确吧,RLVR 主要是指有可验证奖励的 RL 场景,其实也可以有 PRM 等
        • 个人感觉 RLVR 更像一种场景,而不是一种方法
    • 本文将此设定形式化为具有丰富反馈的强化学习,并提出了 SDPO
    • SDPO(Self-Distillation Policy Optimization)是一种针对 LLM 在可验证环境(如代码、数学推理)中进行强化学习的方法
      • 理解:其实只要有反馈信号(比如 开放问答领域的 Reference Answer 或者 Reward Model 的打分),也可以考虑使用(做一些信号处理后输入 Teacher 模型的上下文)
    • SDPO 基本思路:
      • 通过利用环境提供的反馈(如运行时错误、测试失败信息、评语等)
      • 以自蒸馏的方式实现密集信用分配(Dense Credit Assignment)
      • 克服传统 RL 方法中因标量奖励导致的奖励稀疏性 带来的信用分配瓶颈
      • 理解:SDPO 的本意实际上就是想使用更丰富的奖励信号来给 Token 训练提效
    • 本文的范式可称为 RLRF 范式(带 Rich Feedback 的 RL)
      • 环境提供超出标量奖励的 Tokenized Feedback,这论证了这移除了 RLVR 的一个关键信息瓶颈
    • 作者强调 SDPO 的优点:
      • 在缺乏 Rich Feedback 的标准 RLVR 环境中进行训练,SDPO 在推理任务上也展现出比 GRPO 更优的样本效率和实际收敛时间
      • SDPO 的收益随着模型规模的增大而增长
        • 表明自我修正的能力与模型的上下文学习能力共同扩展
      • 在 Test-time 对单个困难的二元奖励任务执行 SDPO,与强基线相比,能加速解的发现
    • SDPO 能够以一种更接近人类认知的方式从 Rich Feedback 中学习:利用精确的结果而不仅仅是二元奖励
      • 通过允许模型回顾性地确定它本应如何行动
  • SDPO(本文) vs OPSD 方法:
    • 除了 OPSD 强调信号来自已有数据集 \(\mathcal{D}\) 的参考答案外,OPSD 几乎和本文 SDPO 思路一致,都是 On-policy 蒸馏的
    • SDPO 强调外部评估环境信号
      • 实际上,在 SDPO 原始论文的表 2 中可以看到:如果存在正确 Rollout 的话,Teacher 的 Prompt 中可能会包含之前生成的正确 Rollout 作为 Hint
    • OPSD 强调参考答案 \(y^*\),类似 SFT 的样本(注意:OPSD 要求包含的参考答案 \(y^*\) 是原始数据集中必须存在的,不是 Student 也不是 Teacher 生成的)
      • 两者算法上几乎没有差异(两篇文章几乎同时发出 20260126 vs 20260128,算是并发的工作,OPSD 引用了 SDPO )
      • 总结来说:两者核心区别在于 hint 信号不同:
        • OPSD 更强调仅使用自身(能生成至少一次正确答案的自身)模型,数据集必须包含参考答案 \(y^*\)(类似 SFT 的样本)
        • SDPO 则强调外部评估信号的引入(数据集中只需要 Query,不需要参考答案 \(y^*\),但需要外部评估的反馈信号)
  • 对 SDPO 评价:
    • 新颖的想法:将符号化反馈转化为密集学习信号;在 Token-level 分配 Advantage ,提升学习效率
    • 训练提效:在仅返回标量反馈的标准 RLVR 环境中
      • SDPO 将成功的 Rollout 作为失败尝试的隐式反馈,同样优于基线方法
    • Test-time 提效:
      • 在 Test-time 将 SDPO 应用于单个问题,可以加速在困难的二元奖励任务上的发现过程
      • 在达到与 Best-of-\(k\) 采样或多轮对话相同的发现概率时,所需的尝试次数减少了 \(3 \times\)
    • 无需外部 Teacher :完全自监督,适用于在线学习
    • 适配性强:可作为标准 RLVR 方法的即插即用替代
    • 可能存在问题:
      • 性能依赖于模型的上下文学习能力 ,对较弱模型可能还不如 GRPO
      • 反馈质量直接影响学习效果,要重点关注

Introduction and Discussion

  • 背景 & 分析:
    • 传统 RL:对经验(行动、接收反馈、更新策略)进行迭代,可以解锁仅从静态监督中难以获得的能力 (2015; 2016; 2017; 2019)
    • 在 LLM RL:RL 显著提高了在重推理任务上的性能,尤其是在具有程序化或其他可验证评估的环境中 (2024; 2025; 2025; 2025)
    • 目前 LLM 后训练的主流 RL 方法仍然受限于信用分配
      • 大多数现有方法在 “RLVR” 设定下运行:
        • 给定一个问题 \(x\),模型采样一个答案 \(y \sim \pi_{\theta}(\cdot | x)\) 并接收一个标量奖励 \(r \in \mathbb{R}\),通常是二元的(例如,代码生成中的单元测试通过/失败)
      • 现代策略梯度 RLVR 方法(如 GRPO)从这些稀疏的结果奖励中估计 Advantage
      • 而且:当一个组中的所有 Rollout 都获得相同(通常为零)奖励时,GRPO 的 Advantage 会坍缩为零,导致学习停滞
  • 已有一些解法:
    • 一些方法从强大的 Teacher 那里进行蒸馏 (2025; 2026)
      • 可以提供密集的 Token-level 监督
      • 但在在线学习中,当目标是提升现有模型的能力上限时,强大的 Teacher 通常是不可用的
  • 本文认为关键的限制不在于 RL 本身,而在于标量结果奖励所施加的信息瓶颈
    • 许多可验证环境暴露了超出标量奖励 \(r\) 的丰富 Tokenized 反馈,例如运行时错误、失败的单元测试或来自 LLM 评判员的评估
    • 这种反馈不仅揭示了 Rollout 是否正确,还揭示了错误所在
  • 本文将这个更一般的设定形式化为 Reinforcement Learning with Rich Feedback (RLRF)
    • 图 2 中说明了其与 RLVR 的区别
    • RLRF 中,反馈可以是 Agentic 系统达到的任何状态的任何 Tokenized 表示
  • 核心问题提出:如何在不依赖外部强大 Teacher 提供监督的情况下,将丰富的反馈转化为有效的信用分配?
  • 本文出发点是观察到 LLM 已经拥有一个使用反馈的强大机制(上下文学习)
    • 当以反馈为条件时,同一个模型通常能够识别出可能的错误并提出修正方法
    • 这种反馈的一个常见例子是像 LeetCode 这样的编码平台上失败测试用例的总结(图 3)
    • 许多近期的工作利用这种返回机制来迭代生成修正 (2021a; 2023; 2023; 2024; 2025; 2025)
    • 本文使用当前的策略作为一个 “Self-Teacher”
      • 在接收到丰富的反馈后,不是采样一个新的 Response,而是重新评估现有的 Rollout
      • 将反馈包含在上下文中会改变模型的下一 Token 分布,使得 Self-Teacher 能够在特定 Token 上同意或不同意 Student 原先的选择
      • 这产生了密集的、Logit-level 信用分配
    • 当提供图 3 中的反馈时, Self-Teacher 可以识别出应如何修改最初的尝试以避免运行时错误
      • 这种机制不会产生采样的开销:只需在 Self-Teacher 以反馈增强的上下文中重新计算原始尝试的对数概率
  • 本文提出一种通过自蒸馏执行 RL 的 On-Policy 算法 SDPO
    • SDPO 从当前策略中采样 Rollout,获得丰富的环境反馈,然后最小化一个 Logit-level 蒸馏损失,该损失使当前策略的下一 Token 分布与 Self-Teacher 的分布相匹配
    • SDPO 解决了将蒸馏应用于 Online Learning 时的核心限制:缺乏更强的外部 Teacher
    • SDPO 不依赖于固定的 Teacher ,而是利用模型事后识别自身错误的能力
    • Self-Teacher 以刚刚收到的丰富反馈为条件来构建当前策略 ,提供了蒸馏的密集监督,同时保留了 On-Policy RL 的探索 Advantage
    • 表 1 总结了 SDPO 相对于 RLVR 和蒸馏基线所处的位置(这里强调 OPD 和 SDPO 的区别主要是前者需要一个 更强的 Teacher 模型)
  • 注:本文在第 6 节中包含了相关工作的全面总结
  • 注:SDPO 是一种策略梯度算法,其 Advantage 是使用 Self-Teacher 估计的
    • SDPO 只需替换掉 Advantage 项,就能对标准的 RLVR 流程进行微小改动来实现
  • 本文在三种在线 RL 设定中评估 SDPO:
    • Learning without rich feedback (§3):
      • 评估场景:不返回任何标量奖励之外反馈的标准 RLVR 环境
      • SDPO 将当前批次中采样到的成功尝试视为对同一问题上失败尝试的“反馈”
      • 使用 Qwen3-8B 和 Olmo3-7B-Instruct 作为起点,在科学推理和工具使用任务上进行了训练
      • 结果:
        • SDPO 在总体最终准确率上优于整合了近期改进的强 GRPO 基线(分别为 \(70.2%\) 和 \(66.6%\))
        • 与 GRPO 相比,SDPO 在实现更高准确率的同时,生成长度最多可缩短 \(11\times\)
          • 这表明有效的推理不一定需要冗长
    • Learning with rich feedback (§4):
      • 评估场景:来自 LiveCodeBench v6 的、带有 LeetCode 风格反馈的竞争性编程问题
      • 如图 1 所示
        • SDPO 显著优于 GRPO,达到了更高的最终准确率(分别为 \(48.8%\) 和 \(41.2%\)),并且达到 GRPO 最终准确率所需的生成次数减少了 \(4\times\)
        • SDPO 的增益随着模型规模的扩大而增长,这表明自教学的能力随着模型成为更强的上下文学习者而出现
    • Discovering novel solutions to hard tasks at test-time(§5): 评估模型在推理阶段,发现困难任务的新颖解决方案
      • SDPO 可以加速在困难的二元奖励问题上找到解决方案的过程
        • RLVR 只有在找到第一个解决方案后才会开始学习
        • 利用 SDPO 进行 Test-time 自蒸馏,这是一种模型针对单个测试问题进行特化的 Test-time 训练形式
        • 这里针对的是 LiveCodeBench 中非常困难的问题(基础模型的 pass@64 低于 0.03)
        • SDPO 将发现解决方案的速度加快了 \(3\times\)

SDPO: Self-Distillation Policy Optimization

  • SDPO 利用当前策略的上下文学习能力来进行信用分配
  • Self-Teacher 是 \(\pi_{\theta}(\cdot \mid x,f)\),以问题 \(x\) 和丰富反馈 \(f\) 为条件的当前策略(“Student”)
    • 除了 Student 最初的尝试 \(y\),\(f\) 可以包含两种关键的反馈信息:
      • 任何环境输出:例如来自代码环境的运行时错误
      • 已有解决方案:比如 \(x\) 已经在 Rollout 组中被另一个尝试解决了的样本解决方案
    • Self-Teacher \(\pi_{\theta}(\cdot |x,f)\) 应该比 Student \(\pi_{\theta}(\cdot |x)\) 有更高的准确率,因为它在上下文中看到了额外的信息
  • 这引导作者得出如下观察:

    可以将同一个策略用于两种不同的角色:作为 Student 进行最初的尝试,以及作为 Teacher 来确定行动在事后的价值

  • SDPO 反复地将 Self-Teacher 蒸馏到 Student 中
    • 给定一个问题 \(x\)
      • 首先从 Student \(\pi_{\theta}\) 中采样 Rollout,并获得相应的环境反馈
      • 然后使用 KL 散度,作为 Student 和 Teacher 下一 Token 分布之间的距离度量
        $$ \text{KL}(p| q) = \sum_{i}p(i)\log \frac{p(i)}{q(i)} $$
      • 并优化一个标准的 Logit 蒸馏损失:
        $$\mathcal{L}_{\text{SDPO} }(\theta):= \sum_{t}\text{KL}(\pi_{\theta}(\cdot |x,y_{< t})| \text{stopgrad}(\pi_{\theta}(\cdot |x,f,y_{< t}))) \tag{1}$$
        • stopgrad 运算符阻止梯度通过 Teacher 传播,防止 Teacher 向 Student 退化而忽略 \(f\)
        • Teacher 的直观作用是,基于反馈 \(f\) 通过回溯来确定 Student 的原始尝试 \(y\) 在何处以及如何出错
  • 图 4 展示了使用 Qwen3-8B 作为 Student 和 Self-Teacher 的自教学示例
  • 算法 1 中总结了 SDPO
  • 表 2 中展示了 Teacher 的报告模板
    • prompt 替换为问题
    • 一个先前由 Student 生成的样本解决方案被替换为 successful previous rollout(如果该问题有的话;否则跳过该段落)
    • environment_output 被替换为环境输出(例如,见图 3),该输出来自模型的原始尝试(如果尝试不成功且没有解决方案;否则跳过该段落)
    • 如果模型的原始尝试成功,则将此尝试作为正确的解决方案传递
    • original_response 被替换为模型的原始尝试,以便在 Self-Teacher 下重新评估其对数概率

Proposition 2.1,SDPO 的梯度

  • 本节详情参见附录 A.1
  • \(\mathcal{L}_{\text{SDPO} }\) 的梯度是
    $$\nabla \mathcal{L}_{\text{SDPO} }(\theta) = \mathbb{E}_{y\sim \pi_{\theta}(\cdot |x)}\left[\sum_{t = 1}^{|y|}\mathbb{E}_{\hat{y}_{t}\sim \pi_{\theta}(\cdot |x,y_{< t})}\left[\log \frac{\pi_{\theta}(\hat{y}_{t}\mid x,y_{< t})}{\pi_{\theta}(\hat{y}_{t}\mid x,f,y_{< t})}\cdot \nabla_{\theta}\log \pi_{\theta}(\hat{y}_{t}\mid x,y_{< t})\right]\right]. \tag{2}$$

Comparison to RLVR

  • SDPO 梯度是一个(负的)Logit-level 策略梯度,其 Advantage 是使用 Self-Teacher 估计的
    • 也就是说:SDPO 可以重用标准的 RLVR 实现,只需替换掉 Advantage 项
  • 设 \(y_{i}\) 是问题 \(x\) 的规模为 \(G\) 的 Rollout 组中的第 \(i\) 个 Rollout,那么比较 GRPO 和 SDPO,有:
    $$
    \begin{align}
    A_{i,t}^{\text{GRPO} }:&=r_{i}-\text{mean}\{r_{i}\}_{i=1}^{G}(\text{constant in }t),\\
    A_{i,t}^{\text{SDPO} }(\hat{y}_{i,t})&=\log\frac{\pi_{\theta}(\hat{y}_{i,t}\mid x,f_{i},y_{i,t})}{\pi_{\theta}(\hat{y}_{i,t}\mid x,y_{i,t})}
    \end{align}
    $$
    • GRPO 的 Advantage 仅应用于 Sampled Token \(y_{i,t}\),并且在 Rollout \(y_{i}\) 内是常数
      • 问题:这里有必要强调 Advantage 仅应用于 Sampled Token 吗?
      • 回答:有的,这里是想强调 SDPO 本身的 Advantage 是词表上所有可能的 Token 都有的
    • SDPO 的 Advantage 仅当 Student 和 Teacher 在 Token (对数概率)上完全一致时才为零
      • 在 Teacher 下更有可能出现的 Token(相对 Student),SDPO Advantage 为正
      • 在 Teacher 下不太可能出现的 Token(相对 Student),SDPO Advantage 为负
    • SDPO 可以在两个方面被视为标准 RLVR 方法的直接扩展:
      • 1)从 1-bit 反馈扩展到允许任意 Token 序列作为反馈
      • 2)利用这种丰富的反馈来估计密集的 Logit-level Advantage
  • Off-policy 实现:
    • SDPO 方法本身是与 RLVR 方法解耦的,我们可以通过 PPO 风格的裁剪重要性采样,从而将公式 (2) 中的 SDPO 梯度轻松扩展到 Off-Policy 数据
    • 详见附录 A.4

Compute time & memory

  • 与 GRPO 相比,SDPO 唯一的计算开销是需要额外计算 Self-Teacher 的对数概率,这可以有效地并行化,并且比顺序生成快得多
  • 图 5 比较了 SDPO 和 GRPO 的计算时间
    • SDPO 的计算开销相对较小 (+17.1% 或 +5.8%)
    • 注:这里使用的 Micro Batch Size 为 \(2\),通过使用更大的 Micro Batch Size 可以进一步减少计算时间
      • 这里的 MBS 对应一次累计梯度使用的 Rollout 数量
  • 朴素地计算 Student 和 Teacher 之间的 KL 散度需要在内存中保存两者的完整 Logits
    • 为避免这种情况,在 SDPO 损失中执行 Top-\(K\) 蒸馏来近似 KL 散度
      • 即:仅计算两部分:
        • 1) Student 的 Top-\(K\) Logits 和 Teacher 对应的 Logits
        • 2)一个捕捉尾概率的项
      • 参见附录 A.3
      • 通过合理选择 \(K\)(例如,\(K = 100\)),这几乎可以避免任何内存开销,同时捕获大部分信息

Stability improvements

  • 两个实际的修改可以显著增强 SDPO 的训练稳定性
    • 1)采用正则化的 Self-Teacher ,通过 Student 参数的指数移动平均或通过将当前 Teacher 与初始 Teacher 进行插值来实现(参见附录 A.2)
      • 后面会详述,这两种策略都能有效地稳定学习
    • 2)采用对称的 Jensen-Shannon 散度作为蒸馏损失
      • 已有研究表明,这种形式也能提高从外部 Teacher 进行 On-Policy 蒸馏时的稳定性 (2024)

Learning without Rich Environment Feedback

  • 标准的 RLVR 环境中的反馈仅限于标量奖励
  • 在这个场景下,SDPO 不使用标量奖励,而是将当前批次中采样到的成功尝试视为对同一问题上失败尝试的“反馈”
    • 通过将 Student 的尝试与正确的解决方案进行比较
    • Self-Teacher 可以识别出 Student 在何处出错,并提供密集的信用分配

Experimental setting

  • 评估模型尚未经过显式微调的任务:
    • Science Q&A (化学、物理、生物学、材料科学): 使用 SciKnowEval (2024a) 中的推理子集 (L3) 进行本科水平的科学推理
    • Tool use: 根据 ToolAlpaca (2023),将工具 API 规范和用户请求映射到正确的工具调用
  • 对数据进行训练/测试分割以测试领域内的泛化能力
  • 使用 Qwen3-8B (2025a) 和 Olmo3-7B-Instruct (2025) 作为初始检查点
  • 报告相对于实际训练时间(不包括初始化和验证)的 avg@16
Baselines
  • 将 SDPO 与一个改进版的 GRPO 进行比较
    • 该版本 GRPO 整合了最近的几项修改 (2025; 2026),例如非对称裁剪 (2025)、避免有偏归一化 (2025b) 以及在使用高效推理框架时校正 Off-Policy 数据 (2025)
    • 将这些修改整合到一个 GRPO 实现中,代表了一个强基线,详见附录 A.4 中的公式 (12)
  • GRPO 通过 PPO 的裁剪重要性加权支持 Off-Policy 训练 (2017)
    • 本文还报告了 On-Policy GRPO 的特例(与原始 SDPO 的超参数匹配)
  • 对于这两个基线,执行了超参数扫描,并报告了在所有目标任务上实现最高验证性能的模型的结果
  • 超参数和训练细节在附录 E 中提供
  • 使用 ver1 库 (2025) 进行快速的多 GPU 训练

Results

  • 表 3 总结了本文的结果
    • SDPO 在几乎所有运行中都优于 GRPO,通常带来显著的改进
    • SDPO 的学习速度明显快于 GRPO
      • 在几种情况下,SDPO 仅训练 1 小时就达到了 GRPO 训练 5 小时的性能
  • 如图 6(左)所示,SDPO 在化学任务上比 GRPO 取得了特别显著的改进
    • 使用 Olmo3-7B-Instruct,SDPO 在 50 分钟的实际训练时间内就达到了 GRPO 5 小时的准确率,速度提升了 \(6\times\)
    • SDPO 的 5 小时准确率比 GRPO 高出超过 \(10%\) 的百分点
  • 使用 SDPO 的结果严格采用了 On-Policy 训练(即,每个生成批次只进行一次梯度更新)
    • 考虑到 Off-Policy 方法(每个生成批次执行多次梯度更新)已知的效率 Advantage
  • 注:作者认为研究 SDPO 与 Off-Policy 更新相结合是一个令人兴奋的未来方向
Takeaway 1
  • SDPO 能够学习有效地进行推理,泛化到具有挑战性的推理任务
  • 无需对现有的 RLVR 环境进行任何修改,SDPO 在多个案例中显著优于 GRPO

Self-distillation learns to reason concisely

  • 实验观察可知,SDPO 生成的 Response 比 GRPO 短得多,同时实现了更高的准确率
    • 平均而言,SDPO 的 Response 比 GRPO 短 \(3\times\) 以上(参见附录 D 的表 8)
    • 在化学任务上使用 Olmo3-7B-Instruct,SDPO 甚至将 Response 长度减少了 \(11\times\),同时保持了更高的准确率(图 6(右))
  • 注:RLVR 上的实验表明,扩展 Response 长度是激发新兴推理能力的强大驱动力 (2024; 2025; 2025)
    • 本文的结果表明,有效的推理不一定总是冗长的(比如 SDPO 就提高了推理的效率)
  • 定性地看,GRPO 较长的 Response 通常源于“表面”的推理,而非必要的分析步骤
    • GRPO 经常生成诸如“Hmm”和“Wait”之类的填充短语,或者进入循环逻辑,逐字重复之前的步骤
    • 图 7 显示了这种现象的一个代表性例子
      • SDPO 的生成保持简洁,避免了这些表面模式
      • 这可以通过 SDPO 的密集信用分配来解释,它为每个下一 Token 预测分配一个特定的 Advantage ,从而产生稀疏的 Advantage (参见附录 F 的图 21)
      • 通过提高推理效率,SDPO 减少了推理生成时间,并表明推理性能可以通过改进模型的推理方式(而不仅仅是推理长度)来提高

Learning with Rich Environment Feedback

  • 本节在编码任务上评估 SDPO,编码是一个典型的 RL 环境示例,提供了丰富的反馈,例如运行时错误和失败的单元测试
    • 学习解决这些编码问题需要强大的信用分配,因为模型必须识别其精确的错误,以避免在未来重复这些错误
  • LiveCodeBench (2025) 提供了一组竞赛风格的编码问题,范围从简单到竞赛级别
    • 本文将评估限定在 LCB 的最新子集 LCBv6 上,该子集包含 2025 年 2 月至 5 月发布的 131 个问题
    • 本文考虑一个包含公开和私有单元测试的设置,这在代码竞赛和 LeetCode 等编码平台中很常见,其中公开测试用于训练期间的评估,私有测试用于验证 (2022; 2022; El-2025; 2025)
  • 本文在实验中使用 Qwen3 (2025a) 模型系列,除非另有说明,默认使用 Qwen3-8B
    • 本文报告 4 次 Rollout 的平均准确率,并使用与第 3.1 节中概述的相同的 GRPO 基线
  • Results
    • 图 1 比较了 SDPO 和 GRPO 在 LCBv6 上的学习曲线
    • SDPO 达到了比 GRPO 显著更高的最终准确率 \((48.8%)\),相比 GRPO 的 \((41.2%)\),同时也优于公开 LCBv6 排行榜上最强的指令模型(Claude Sonnet 4 \((40.5%)\) 和 Claude Opus 4 \((39.7%)\))
    • SDPO 达到 GRPO 最终准确率所需的生成次数减少了 \(4\times\)
  • 在附录的表 9 中包含了与其他性能与 GRPO 相似的 RLVR 基线的扩展比较
    • 本文根据 LCB 的简单、中等和困难问题进行分类,SDPO 在解决中等和困难问题方面相比 GRPO 有特别显著的改进(参见附录的图 15)

Self-distillation benefits from stronger models

  • 本文工作的一个核心问题是 SDPO 是否对基础模型的上下文学习能力敏感
    • 我们期望 SDPO 受益于强大的上下文学习器,因为这使得 Teacher 能够执行更准确的回顾
  • 为了回答这个问题,本文对 Qwen3 系列的不同模型大小进行了扩展研究
    • 正如大量先前工作所证明的,上下文学习的能力随着模型大小的增加而增强(例如,2020)
  • 如图 8 所示
    • SDPO 在较大模型上显著优于 GRPO,而在较小模型上仅略微优于 GRPO
  • 为了确定 SDPO 在比 Qwen3-0.6B 更弱的模型上是否也可能表现不如 GRPO,本文使用 Qwen2.5-Instruct (2024) 进行了额外的扩展研究
    • 在使用 Qwen2.5-7B 时 SDPO 优于 GRPO,在使用 Qwen2.5-8B 时 SDPO 和 GRPO 表现相当
    • SDPO 在 Qwen2.5-1.5B 上表现不如 GRPO,如附录 D 的图 17 所示
Takeaway 2
  • 本文实验结果表明:SDPO 相对于 GRPO 的边际改进与基础模型的强度紧密相关
    • 就像上下文学习是随着规模扩展而出现的一种现象一样
    • SDPO 中 Self-Teacher 的准确回顾能力似乎也是随着规模扩展而出现的
  • 未来建议对比 Qwen3-8B 更强的模型进行研究

Self-distillation performs dense credit assignment

  • GRPO 为每个生成的 Token 分配一个恒定的 Advantage (Sequence-level)
  • SDPO 根据 Student 和 Teacher 的一致性,为生成序列中每个位置上的每个可能的下一个 Token 分配一个单独的 Advantage (Token-level)
    • 在生成序列 \(y\) 的每个位置 \(t\),有 \(|\nu|\) 个可能的下一个 Token,其中 \(\nu\) 是词表
  • 在蒸馏中,这个层级通常被称为 Logit 层级,因为它对应于模型的 Logits
    • 在实践中,本文通过前 \(K\) 个 Token 加上 尾部来近似完整的下一个 Token 分布
    • 也就是说:SDPO 为每个序列分配 \(|y|\cdot (K + 1)\) 个唯一的 Advantage
      • 注:这里的 \(|y|\) 是当前序列的 Token 数
    • 如图 9 所示,这允许 SDPO 执行密集的信用分配
      • 在图 4 的示例中,SDPO 的密集信用分配
      • 蓝色显示的是在 Self-Teacher 下变得更有可能的 Token
      • Self-Teacher 识别出返回的 range 语句必须如何修改,以便它不包含 n
  • 一个自然的问题是,SDPO 的性能提升是由于利用了 RLRF 中的丰富反馈,还是由于 SDPO 的密集信用分配?
  • 为了回答上述问题,作者在三种配置中进行了 SDPO 性能的消融实验:
    • Logit-level SDPO : 在每个位置上对(Student 认为的)最有可能的 100 个 Token 进行信用分配
    • Token-level SDPO : 在每个位置上只对最有可能的 Token 进行信用分配
    • Sequence-level SDPO : 在整个序列上计算 Generated Token 的 SDPO Advantage 的均值
      • 这产生的是每个序列的单个标量 Advantage (如 GRPO 中那样)
      • 注:Sequence-level SDPO 并不比 GRPO 执行更密集的信用分配,但仍然利用了丰富的反馈 \(f\)
  • 如图 10(左)所示,Logit-level SDPO 的密集信用分配带来了比 Token-level SDPO 和 Sequence-level SDPO 显著的性能提升
    • 但即使 Sequence-level SDPO 也优于 GRPO
      • 这表明即使在没有密集信用分配的情况下,在 RLRF 中利用丰富的反馈也能带来比 RLRV 方法实质性的收益
  • 图 10:
    • 左图: RLRF 中的丰富反馈和 SDPO 的密集信用分配是互补的
      • 本文比较了 Logit-level、Token-level 和 Sequence-level 的 SDPO Advantage 与 GRPO
      • 虽然 SDPO 中更密集的信用分配是有益的(Logit-level > Token-level > Sequence-level),但即使 Sequence-level SDPO 也因利用了丰富的反馈而显著优于 GRPO
      • 误差线表示 3 次随机种子的标准误差
    • 右图: Self-Teacher 在训练过程中得到改进
      • Self-Teacher 与 Student 相比在当前训练批次上的生成准确率(5 步滚动平均)
        • 最终 Student 得分在第 80 步取得
      • Student 的性能显著超过了初始 Teacher 的准确率
      • 误差线表示 3 次随机种子的标准差

The self-teacher improves during training

  • 与标准的蒸馏相反,SDPO 中的 Self-Teacher 不是冻结的,而是在整个训练过程中更新
    • 这是 SDPO 的一个关键组成部分,因为它使 Teacher 能够随着时间的推移而改进,这意味着 Student 可以从更强的目标中学习
  • 为了研究 Self-Teacher 是否在训练过程中得到改进,本文在图 10(右)中绘制了使用 Self-Teacher 生成时的平均准确率
    • Self-Teacher 在训练过程中显著提高
  • 最值得注意的是, Student 的在训练的后期阶段, Student 的准确率超过了初始 Teacher 的准确率。这表明 SDPO 能够实现从弱模型到强模型的真正的自举,而不受初始 Self-Teacher 性能对最终 Student 的限制
  • 表 4: 第 90 步之前各种 Teacher 正则化方法的最佳/平均准确率
    • Trust-region 和 EMA Teacher 使用 \(\alpha = 0.01\)。\(q_{\theta}\) 的训练最终发散
    • 误差范围表示 3 次随机种子的标准误差
  • 如第 2.3 节所述,SDPO 使用正则化的 Teacher 来稳定训练
    • 从表 4 可以看出,未正则化的 Teacher 性能显著低于正则化的 Teacher
    • 信任区域 (Trust-region) 和 EMA Teacher 的表现优于冻结在初始 Teacher 参数上的 Teacher ,这表明 Teacher 通过与 Student 的参数共享得到了改进
    • 即使使用冻结的 Teacher ,SDPO 也表现良好

On-policy self-distillation avoids catastrophic forgetting,OPSD 防止了灾难性遗忘

  • 先前的工作表明,On-policy 算法(如 GRPO)的一个关键好处是模型往往不会忘记先前获得的能力 (2026b; 2025b; 2025)
    • 这在实践上是可取的,因为它支持持续训练流程,即模型可以在不同任务上顺序训练,而无需从头开始重新训练
  • 为了评估遗忘,本文在各种保留任务上测试了 GRPO 和 SDPO 的最终检查点:
    • IFEval (2023):测试模型遵循精确格式指令的能力
    • ArenaHard-v2 (2025a):基于 LLM 评判的真实世界指令跟随 Prompt 的基准,源自 LMArena (2024)
    • MMLU-Pro (2024b):测试广泛的多任务知识和推理能力
  • 如表 5 所示,SDPO 在学习新任务的同时减轻了初始能力的退化,总体上实现了比 GRPO 更好的性能-遗忘权衡
    • 注:这里看起来 SDPO 相对 GRPO 的提升不太明显
Off-policy self-distillation baseline
  • 作为一个额外的基线,考虑通过 SFT 来训练 Student ,使用来自 Self-Teacher 的成功生成 (2023; 2024; 2025)
    • 对于相同数量的步骤,这需要 \(2\times\) 的 SDPO 生成次数,因为必须同时从 Student 和 Teacher 生成
  • 本文报告了对 Self-Teacher 的成功生成进行 SFT 的结果
    • 这比在 SFT 数据中同时包含来自 Student 的初始成功取得了更高的准确率
    • 如表 5 所示,对 Self-Teacher 进行 SFT 在 LCBv6 上的表现显著不如 SDPO,同时导致对先前能力的遗忘更严重
      • 这反映了先前关于 Off-policy 模仿不稳定的发现(例如,2024)

Can GRPO and SDPO be combined?

  • GRPO 使用蒙特卡洛 Advantage ,这对于最大化期望奖励的目标是无偏的:
    $$J(\theta) := \mathbb{E}_{y\sim \pi_{\theta}(\cdot |x)}[r(y|x)]$$
  • SDPO Advantage 相对于 \(J(\theta)\) 本质上是有偏的,因为它们是由丰富的反馈和 Self-Teacher 计算得出的
  • 这种二分法类似于 RL 中蒙特卡洛和 Bootstrapped Advantage 之间的根本区别:
    • 虽然后者有偏,但它们通常具有更低的方差 (1998; 2016)
    • 这激发了一种混合方法,结合了从奖励派生的 GRPO Advantage 和从反馈派生的 SDPO Advantage :
      $$A_{i,t}^{\text{SDPO + GRPO} }(\hat{y}_{i,t}) := \lambda A_{i,t}^{\text{GRPO} }(\hat{y}_{i,t}) + (1 - \lambda) A_{i,t}^{\text{SDPO} }(\hat{y}_{i,t}), \quad \lambda \in [0,1]. \tag{3}$$
  • 如图 11 所示,SDPO+GRPO 在较弱模型上似乎比 SDPO 更鲁棒
    • 在像 Qwen3-0.6B 这样的较弱模型中,SDPO Advantage 的可靠性较低,因此包含 GRPO Advantage 有助于稳定训练
    • 在像 Qwen3-8B 这样的强模型中,SDPO+GRPO 略逊于 SDPO
    • 这表明,仅由标量奖励提供信息的 GRPO 信号,在初始模型较强时可能是有害的

Which feedback is most informative?

  • 为了理解哪种类型的丰富反馈信息最丰富,本文消融了在像代码生成这样的可验证环境中存在的三种反馈类型:
    • 样本解决方案:仅在当前 Rollout 组中有一个成功的 Rollout 时可用
    • 环境输出:例如运行时错误
    • Student 的原始尝试
      • 问题:Student 的原始尝试没有任何反馈要怎么用?
      • 回答:这里只是写出来作为验证,下文会证明这个做法没有用,而且是有害的
Sample solutions
  • 在失败尝试的 Rollout 组中包含一个样本解决方案,这与 GRPO 的组相对 Advantage 非常相似
    • 注:这些样本解决方案总是由 Student 生成的,就像在 GRPO 中一样,并且不需要专家模型
  • 如果模型已经能够解决问题,可以用来抑制不成功的方法
    • (但与 GRPO 中所有 Token 都收到相同负 Advantage 不同) Self-Teacher 可以识别特定的错误并提供关于如何修复它们的反馈
Environment output
  • 环境输出描述了 Student 尝试后的环境状态
  • 这与样本解决方案是互补的,因为即使 Student 以前从未解决过该问题,它也能提供有用的信号(作者将在第 5 节中广泛探讨这种设置)
  • 利用环境输出是 RLRF 和 RLVR 设置之间的一个关键区别因素
Student‘s original attempt
  • Student 的原始尝试 \(y\) 不必包含在 Teacher 的 Reprompting 模板中
  • 事实上,包含它会使 Teacher 偏向于 Student 的尝试(参见表 6)
    • 这降低了 Student 分布的熵(特别是在最初不确定的 Token 上),从而减少了探索
  • 表 6 中总结了结果,本文评估了对 SDPO 训练的影响以及对 Self-Teacher 的直接影响
    • 本文发现环境输出和样本解决方案是互补的,各自提供信息丰富的反馈
    • 注:通常,性能对表 2 中 Reprompting 模板的句法变化不敏感
  • 表 6 的说明:
    • 本文根据 SDPO 训练(直到第 60 步)以及对 Self-Teacher 的直接影响来评估反馈的信息量
    • “相同输出” 衡量:Teacher 收到与 Student 初始尝试相同的环境输出的情况百分比(即,不探索替代方法)
      • 问题:这句话如何理解?

        “Same output” measures the percentage of cases where the teacher receives the same environment output as the student’s initial attempt (i.e., not exploring alternative approaches).

      • 环境输出和样本解决方案是互补的,各自提供信息丰富的反馈
    • 仅包含解决方案或初始尝试 \(y\) 会显著降低 Teacher 和 Student 的多样性
    • 样本解决方案是由 Student 生成的,这使得类似于 GRPO 的组相对 Advantage 估计成为可能
    • 误差线表示 3 次随机种子的标准差

Solving Hard Questions via Test-Time Self-Distillation

  • 第 3 节和第 4 节已证明了 SDPO 能够在推理任务的 “train-time RL” 中显著优于 RLVR 方法
  • 本节转向一个 Test-time 设定,其中模型仅被给予一个困难的(二元奖励)问题 \(x\) ,并且必须尽快发现一个解:
  • Definition 5.1(Discovery time)
    • 发现时间是直到找到解所需的尝试次数(即最小的 \(k\) ,使得第 \(k\) 次尝试 \(y_{k}\) 获得奖励 1)
  • 基于这个概念,我们可以定义发现效率的度量:
    $$
    \begin{align}
    \text{discovery@k}:&= \mathbb{P}(\text{discovery time}\leq k)\\
    &= \mathbb{P}(r(y_1\mid x) = 1\text{ or }r(y_2\mid x) = 1\text{ or }\ldots \text{ or }r(y_k\mid x) = 1)
    \end{align}
    \tag{4}
    $$
    • 其中概率覆盖了生成 \(y_{k}\) 的算法以及奖励中的所有随机性
    • discovery@k 度量了在 \(k\) 次内发现解的概率
  • 原文中一句难以理解的话:

    While prior work has studied discovery with continuous rewards (2025;2026), discovery with language models in sparse or binary-reward settings does not allow “hill-climbing” a continuous reward and has remained less well understood.

    • 个人理解:这句话的意思是,在不同环境中,模型学习(Discovery)过程不同:
      • 在连续奖励环境 中,模型可通过逐步 优化(“Climbing”) 奖励梯度来逼近最优解
      • 在稀疏奖励 或二元奖励 的环境中,语言模型的 “Discovery” 过程无法像在连续奖励环境 中逐步 Climbing
  • 在二元奖励任务中最朴素发现方法是重复地从基础模型中独立同分布地采样,也称为 best-of-\(k\)
    • 用于 best-of-\(k\) 采样的标准 pass@k 指标正是从固定模型中进行 \(k\) 次独立采样时至少发现一个解的概率(与 discovery@k 一致)
    • discovery@k 指标将 pass@k 推广到顺序采样尝试的算法
    • 一种常见的顺序方法是使用来自先前尝试的额外上下文来 Reprompting 基础模型(2023;2023)
      • 这可称为多轮采样(multi-turn) ,此时模型本身并未改变,只有其上下文随时间演化
  • 论文中一个核心的 Insight:
    • 对问题 \(x\) 执行 RLVR 并不会比从基础模型进行 best-of-\(k\) 采样有所改进
      • 因为在第一个解被发现之前,二元奖励不提供任何信号
    • 像 SDPO 这样的 RLRF 方法则没有同样的限制,因为它在每次尝试后都会从环境中接收到 Rich Feedback
      • 这种 Rich Feedback 使得模型能够在遇到错误并收到反馈后反复“修正”其错误,甚至在发现解之前就能做到
      • 与多轮采样相比,SDPO 通过将 \(\pi_{\theta}(\cdot | x, c)\) 蒸馏到模型 \(\pi_{\theta^{\prime} }(\cdot | x)\) 中,反复压缩上下文
        $$c = (y_{k}, f_{k})$$
        • 如图 12 所示
      • 这种自蒸馏使得 SDPO 能够在长上下文中持续学习,而 Transformer 的内存瓶颈从根本上限制了多轮采样的上下文长度(2017)
  • 本节试图回答以下问题:通过自蒸馏反复将上下文压缩到模型权重中能否加速困难问题的发现?

Experimental setting

  • 本文考虑 LCBv6 中一个特别具有挑战性的子集
    • 这些问题是 Qwen3-8B 性能的上限,需要大量的 Test-time 采样才能找到解
  • 本文使用 Qwen3-8B 的 pass@k 定义了两组任务:
    • 困难任务 (Hard tasks),其 pass@64 < 0.5
    • 非常困难的任务 (very hard tasks),其 pass@64 < 0.03
  • 在这些任务中,仅保留那些 best-of-\(k\)、多轮或 SDPO 方法在 5 个随机种子的 512 步内至少找到一个解的问题
    • 这产生了 19 个困难问题和 9 个非常困难的问题
    • 问题:这里的 512 步是指 512 轮交互吗?
  • 对于基础模型下的 best-of-\(k\) 采样
    • 本文报告来自 2944 次独立 Rollout 的标准 pass@k 估计值 (2021b)
  • 对于多轮采样下,使用先前尝试的串联反馈在上下文中顺序地 Reprompting 模型
    • 为了保持在 Qwen3-8B 的 40k Token 上下文限制内,本文采用先进先出的滑动窗口,一旦达到最大提示长度(32k Token),就丢弃最早的反馈
  • 附录 D 的图 19 中消融了多轮 Reprompting 策略
    • 发现:遗忘过去尝试(仅保留过去反馈) 显著优于 保留过去尝试(过去尝试 + 过去反馈)
  • 本文使用 16 的 Batch size 评估 SDPO,并在附录 D 的图 19 中消融了这个选择
    • 发现:总体性能差异很小,但有点差异
      • 较小的 Batch size 有利于在低生成预算下取得改进
      • 较大的 Batch size 能产生更稳定的更新,这些更新在运行的后期阶段仍然能够学习解决问题

Results

  • 图 13 比较了 SDPO、多轮采样和 best-of-\(k\) 采样在 LCBv6 的非常困难(左)和困难(右)问题上的 discovery@k
    • 在几乎所有生成预算下,SDPO 都实现了显著更高的 discovery@k 比率
  • 在非常困难的任务上:
    • 多轮和 best-of-\(k\) 在可用的生成预算内很大程度上未能解决问题
      • discovery@2750 分别仅为 \(35.6%\) 和 \(41.5%\)
    • SDPO 表现最好
      • 在 \(53.2%\) 的情况下发现了解
    • SDPO 不仅在总体上解决了更多问题,而且使用的尝试次数也少得多
    • 为了在非常困难的问题上达到 \(22%\) 的发现概率,SDPO 所需的生成次数比 best-of-\(k\) 和多轮采样少大约 \(3\times\)
  • 在困难任务上
    • SDPO 达到了 \(78%\) 的 discovery@2750 概率
      • 且以比 best-of-\(k\) 和多轮采样少大约 \(2.4\times\) 的生成次数实现了 \(67%\) 的发现概率
    • 多轮和 best-of-\(k\) 采样分别只解决了 \(68.4%\) 和 \(72.3%\) 的问题
    • 多轮采样的上下文窗口长度在困难问题的 837 (\(\pm 466\)) 步后和非常困难问题的 1007 (\(\pm 349\)) 步后达到极限
      • 这为其在高生成预算下收益递减提供了一个可能的解释
Question 3 is only solved by SDPO
  • SDPO 解决了所有被 best-of-\(k\) 和多轮采样解决的问题,且只有 SDPO 能为 Q3 发现了一个解
    • 该问题在 2750 次尝试内既无法通过多轮采样也无法通过 best-of-\(k\) 采样解决
  • SDPO 在 321 次尝试后首次为 Q3 发现了一个解
    • 这对应于使用 16 的 Batch size 进行 20 次基于反馈的自蒸馏迭代步骤
  • 在附录 D 的表 10 中包含了详细的每个问题的结果
The initial self-teacher does not solve hard questions
  • 对于几乎所有问题, Self-Teacher 的初始准确率都 \(< 1%\) ,甚至在 \(78%\) 的问题上精确为 \(0%\) (附录 D 的表 11)
    • 这表明单轮上下文中的反馈不足以解决问题,但 Self-Teacher 的信用分配对于 SDPO 迭代地精炼策略并最终解决这些问题来说已经足够有效
Takeaway 3
  • 本文证明了丰富的环境反馈使 SDPO 能够显著加速困难问题的发现
  • 对比 RLVR:RLVR 方法仅接收二元奖励信号,因此只有在第一个解已经被找到后才能开始学习

Related Work

Reinforcement Learning with LLMs

  • LLM 在 RL 上的进展主要得益于使用奖励的蒙特卡洛估计的 RLVR 方法,例如 STaR 或 GRPO (2022;2024),类似于经典的 REINFORCE 算法 (1992)
    • 几种传统的 RLVR 算法依赖于学习独立的价值网络 (2017):
      • 会带来显著的内存成本
      • 存在标量奖励的信息瓶颈
  • RLVR 设定通常(结果)奖励仅在序列结束时给出
    • 为了改进信用分配,一些工作学习了过程奖励模型 (PRM),用于估计序列中每一步的奖励 (2023;2024a;2025)
    • 与本文 RLRF 设定不同,PRM 通常在标量奖励上进行训练,要么基于中间状态的价值估计,要么基于结果奖励 (2025)
    • 与 SDPO 中的 Self-Teacher 也不同,PRM 是与 Student 不同的模型,引入了显著的内存开销
  • 本文工作表明,如果给予 Rich Feedback,每个语言模型通过 retrospection 隐式地就是一个 PRM
  • 从概念上讲,本文工作与 “bootstrapping your own latent”(BYOL;2020) 和 “expert iteration”(2017) 相关
    • 这些方法中 Student 通过反复模仿自身的改进版本(称为 “expert”)来引导自身
      • 通常,expert 将 Student 与 Test-time 搜索(如树搜索 (2017) 或多数投票 (2025))相结合
    • 本文的 SDPO 利用 Student 从上下文中提供的 Rich Feedback 中学习的能力,这与 BYOL 中的 “augmented views” 相关

Learning from Rich Feedback and through Retrospection,从 Rich Feedback 和通过 Retrospection 学习

  • 除了标量的结果奖励之外,近期工作还利用丰富的执行或口头反馈来指导生成 (2025;2024b;2025)
    • 一个主要的研究方向集中在将口头反馈转化为 RL 的奖励函数
    • 这通常通过使用外部冻结模型将反馈映射到离散的 Token-level 奖励 (2026),或通过使用强大的外部 LLM 显式构建状态级奖励函数来实现 (2019;2024;2026)
  • 也可以在没有显式奖励建模的情况下利用反馈
    • 有几种方法专注于上下文中的改进,而没有将这个过程整合到 RL 优化循环中 (2021a;2023;2023;2024;2025;2025)
    • 其他方法通过配对反馈前后的 Response 来手动构建偏好数据集,以便使用直接偏好优化进行训练 (2024;2024)
      • 但这需要额外的生成,并且缺乏 SDPO 的直接信用分配
    • 最近的几项工作从已知答案中引导思考轨迹,使用这些答案作为 Rich Feedback (2026;2026;2025)
  • 近期几项工作的核心对象是反馈条件策略 \(\pi_{\theta}(y \mid x, f)\) ,学习能够导致反馈 \(f\) 的答案 \(y\) (2023;2023;2025),通常通过监督目标来实现
    • 这些方法背后的思想是部署一个以期望的(即正面的)反馈为条件的策略
    • 这种方法在概念上与目标条件 RL (2015;2025a) 相关,在该方法中,可以通过目标重新标记 (2017) 从负例中学习
    • 区别:
      • 反馈条件策略将反馈视为一个目标
      • RLRF 将反馈视为一个状态,可用于确定目标 \(x\) 是否实现
    • 总结:与 SDPO 不同,这些方法不使用反馈来对负面轨迹进行信用分配,而是作为目标重新标记的数据转换

Distillation

  • 当强大的 Teacher 模型可用时,蒸馏经常被用作 SFT 的替代方案
    • 蒸馏通过训练 Student 模仿 Teacher 的输出分布或中间表示来迁移能力 (2015;2015;2016;2019;2020)
    • 蒸馏通常是在固定的 Off-Policy 数据集上进行的
  • 为了解决训练和推理之间的分布偏移,近期的工作探索了 On-Policy 蒸馏
    • Student 从外部 Teacher 对 Student 生成结果的反馈中学习 (2024;2024;2025a;2025)
    • 这减轻了训练-测试不匹配的问题,与早期关于在线模仿学习的工作密切相关 (2011)

Self-Distillation

  • 自蒸馏的概念首先由 Snell 等人 (2022) 在类似于监督学习的设定中提出,引入了从提供了额外上下文的模型中采样 ,并训练同一模型在没有该上下文的情况下模仿这些预测 的思想
    • 这种机制已被证明能有效地将行为 (2022;2022;2024;2025b) 和事实信息 (2026;2025;2025a) 压缩到模型权重中
  • 除了将固定上下文压缩到模型权重之外,近期的工作还使用自蒸馏从环境反馈中学习 (2023;2024;2025;2025;2026)
    • 这些方法使用 Off-Policy 自蒸馏目标
    • 本文发现其性能显著低于 SDPO 的 On-Policy 学习
      • Off-Policy 自蒸馏训练 Student 在 Teacher 的生成结果上进行学习
      • SDPO 则训练 Student 避免在其自身生成中犯错
  • 在同时进行的工作中
    • Chen 等人 (2025c) 将 On-Policy 自蒸馏应用于反馈为标量奖励的网格世界环境,并在 Self-Teacher 中设置了一个反思阶段来诊断可能的错误
      • · 09o展示了与学习价值网络进行 Advantage 估计相比有所改进的信用分配
    • 其他同时进行的工作研究了在固定专家演示数据集上的 SDPO,没有在线环境交互 (2026a;2026)

Limitations & Future Work

Limitations

  • SDPO 的性能依赖于模型的上下文学习能力
    • SDPO 主要适用于 RL 训练较强的基础模型,在较弱的模型上可能不如 GRPO
  • SDPO 性能取决于环境反馈的质量
    • 如果环境提供的信息不足或具有误导性,模型可能无法通过 SDPO 从中学习
  • 与 GRPO 相比,SDPO 在计算回顾性模型的 Logit 概率时增加了少量的计算开销
    • 通常可以忽略不计,但对于生成长度较短(生成时间相对较小)的小型模型来说,这可能是一个较大的开销
      • 注:此时相对成本会增加

Future Work

Long-horizon and agentic settings
  • 当轨迹很长或暴露关于中间状态的信息时,RLRF 尤其具有吸引力
  • 在 Agentic 环境中 SDPO 可能会有收益
Training dynamics at scale
  • 除了本文在 LiveCodeBench 上的评估之外,可考虑将 SDPO 扩展到大规模的多任务 RL 训练运行,并进一步研究其在前沿基础模型上的扩展特性
Beyond verifiable rewards
  • 本文专注于可验证的代码生成,但许多任务提供文本反馈却没有一个 ground-truth 验证器
  • 后续可考虑研究 SDPO 的 retrospection 机制能否应用于 开放式文本生成 或 连续奖励任务
Behavioral differences in reasoning
  • 实验中看到 SDPO 诱导出与 GRPO 本质上不同的推理模式
    • SDPO 避免了 GRPO 倾向于冗长和表面化推理的倾向
  • 未来的工作可以系统地研究各个方面的因素(例如 Reprompting 模板)如何影响行为

附录 A:Implementation of SDPO

  • Figure 14: The pseudo-code of SDPO within a standard RL training pipeline. Omitted here is the filtering to top-K logprobs for student and teacher (including a tail term) as described in Appendix A.3. Further, we omit here any importance sampling weights to correct for off-policy data. reprompt modifies the batch to incorporate teacher context (i.e., rich feedback). divergence implements any per-token divergence such as reverse-KL, forward-KL, or Jensen-Shannon.

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    def compute_sdpo_loss(batch, teacher_context, loss_mask):
    """
    Computes probabilities of response y under the self-teacher
    and the per-logit SDPO loss.
    """
    # Compute model probabilities for response y
    logprobs_student = compute_log_prob(batch) # (T,V)
    probs_student = logprobs_student.exp() # (T,V),注:实际上,这一样没有用

    # Compute self-teacher probabilities for response y
    teacher_batch = reprompt(batch, teacher_context)
    logprobs_teacher = compute_log_prob(teacher_batch).detach() # (T,V)

    # Compute SDPO loss: per-token divergence
    per_token_loss = divergence(logprobs_student, logprobs_teacher) # (T,)
    return agg_loss(per_token_loss, loss_mask, loss_agg_mode="token-mean")
  • 附录 A 的下文内容包括:

    • 本文实现中使用的梯度估计器 (附录 A.1)
    • Teacher 正则化 (Teacher regularization) (附录 A.2)
    • 通过 top-K logits 近似 logit 蒸馏以节省 GPU 内存 (附录 A.3)
    • 将 PPO 风格的策略梯度算法泛化到 Logit-level Advantage (附录 A.4)
  • 为了区分 Self-Teacher 的符号,下文中使用
    $$ q_{\theta}(\cdot |x,f):= \pi_{\theta}(\cdot |\text{reprompt}(x,f))$$

    • 这里,reprompt 表示 Self-Teacher 的重提示模板

A.1 Gradient Estimators

  • 本节讨论当前策略 \(\pi_{\theta}(y|x)\) 和 Teacher 策略 \(q_{\theta}(y|x,f)\) 之间 KL 散度的两种可能的梯度估计器
Per-token estimator
  • 推导公式 (1) 定义的 SDPO 损失的梯度:
    $$\mathcal{L}_{\text{token} }(\theta):= \mathbb{E}_{y\sim \text{stopgrad}(\pi_{\theta}(\cdot |x))}\left[\sum_{t = 1}^{T}\text{KL}(\pi_{\theta}(\cdot |x,y_{< t})||\text{stopgrad}(\pi_{\theta}(\cdot |x,f,y_{< t})))\right] \tag{5}$$
  • 得到以下估计器(详细证明见附录 B.1),它对应于每个 token 处 KL 散度的梯度之和:
    $$\nabla \mathcal{L}_{\text{token} }(\theta) = \mathbb{E}_{y\sim \pi_{\theta}(\cdot |x)}\left[\sum_{t = 1}^{T}\mathbb{E}_{\hat{y}_{t}\sim \pi_{\theta}(\cdot |x,y_{< t})}\left[\nabla_{\theta}\log \pi_{\theta}(\hat{y}_{t}\mid x,y_{< t})\cdot \log \frac{\pi_{\theta}(\hat{y}_{t}\mid x,y_{< t})}{\pi_{\theta}(\hat{y}_{t}\mid x,f,y_{< t})}\right]\right]. \tag{6}$$
  • 这对应于命题 2.1 中提出的估计器
    • 该梯度估计器有效地假定了生成 \(y\) 的采样分布是固定的
Sequence-level estimator
  • 另一种自蒸馏目标是最小化 Student 和 Self-Teacher 之间的 Sequence-level KL 散度,即:
    $$\begin{align} \mathcal{L}_{\text{seq} }(\theta):&= \text{KL}(\pi_{\theta}| q_{\theta}) = \mathbb{E}_{y\sim \pi_{\theta}(\cdot |x)}\left[\log \frac{\pi_{\theta}(y\mid x)}{q_{\theta}(y\mid x,f)}\right]\\
    &= \sum_{t = 1}^{T}\mathbb{E}_{s_{t}\sim \Pi_{\theta} }\left[\text{KL}(\pi_{\theta}(\cdot \mid s_{t})| q_{\theta}(\cdot \mid s_{t},f))\right] \end{align} \tag{7}$$
    • \(s_{t} = (x,y_{< t})\) 是前缀(“状态”)
    • \(\Pi_{\theta}\) 表示策略 \(\pi_{\theta}\) 下的前缀分布
      • 理解,即zhuangtai状态 \(s_t\) 的分布
  • 估计该目标的梯度还会考虑 \(y_{t}\) 的选择如何影响未来的状态 \(y_{> t}\)(由于对 \(\Pi_{\theta}\) 的额外依赖性)
  • Amini 等人 (2025) 表明相应的梯度估计器由下式给出:
    $$\pmb {\nabla}\mathcal{L}_{\text{seq} }(\theta) = \pmb {\nabla}\mathcal{L}_{\text{token} }(\theta) + \mathbb{E}_{y\sim \pi_{\theta}(\cdot |x)}\left[\sum_{t = 1}^{T}\text{KL}(\pi_{\theta}(\cdot \mid s_{t})| q_{\theta}(\cdot \mid s_{t},f))\pmb {\nabla}_{\theta}\log \Pi_{\theta}(s_{t})\right]. \tag{8}$$
  • Sequence-level 梯度的额外项捕捉了前缀如何影响未来 token 的自蒸馏散度
  • 本文也实验了这种 Sequence-level 梯度估计器,但没有发现相对于其额外复杂性的可衡量的收益

A.2 Regularized teacher

  • 与标准蒸馏不同,SDPO 中的 Teacher 在训练过程中会发生变化
  • 这种自举 (bootstrapping) 使得 Teacher 能够改进,但也可能导致训练不稳定
  • 为了稳定训练,本文尝试防止 Teacher \(q\) 快速偏离初始 Teacher \(\color{red}{q_{\theta_{\text{ref} } }}\)
  • 可以通过对 \(q\) 施加一个明确的信任域约束 (trust-region constraint) (2015; 019) 来实现这一点,即:
    $$\sum_{t}\text{KL}(q(y_{t}\mid x,f,y_{< t})| \color{red}{q_{\theta_{\text{ref} } }}(y_{t}\mid x,f,y_{< t}))\leq \epsilon ,\quad \epsilon >0. \tag{9}$$
  • 这个信任域可以通过两种方式实现:
    • 1)Explicit trust-region: 将 Teacher 定义为在满足信任域约束的同时最接近 \(q_{\theta}\) 的策略,这个 Teacher 可以表示为
      $$q(y_{t}\mid x,f,y_{< t})\propto \exp ((1 - \alpha)\log \color{red}{q_{\theta_{\text{ref} } }}(y_{t}\mid x,f,y_{< t}) + \alpha \log q_{\theta}(y_{t}\mid x,f,y_{< t})), \tag{10}$$
      • 其中 \(\alpha \in (0,1)\) 是信任域约束的逆拉格朗日乘子
      • 本文在附录 B.2 中包含了完整的推导
      • 可以将这个显式约束的 Teacher 直接代入 SDPO 目标
    • 2)Exponential moving average, EMA: 直接稳定 Teacher 的参数
      • 将 \(q_{\theta}\) 参数化为 \(\theta^{\prime}\) 并更新为
        $$ \theta^{\prime}\leftarrow (1 - \alpha)\theta^{\prime} + \alpha \theta$$
        • 其中 \(\alpha \in (0,1)\)
  • 每种实现都有不同的实际 Advantage :
    • EMA Teacher 需要额外的 GPU 内存来存储 \(\theta^{\prime}\)
      • 但不引入任何运行时间开销
    • 信任域 Teacher 需要额外的 log-prob 计算与 \(\color{red}{q_{\theta_{\text{ref} } }}\)
      • 但如果 \(\theta_{\text{ref} }\) 用于显式的 KL 正则化 ,则不需要额外的 GPU 内存

A.3 Approximate Logit Distillation

  • 为了节省 GPU 内存,本文仅对 Student 预测的 top-\(K\) 个 token 进行蒸馏:
    $$\begin{aligned}
    \mathcal{L}_{\text{SDPO} }(\theta) &= \sum_{t=1}^{T} \text{KL}(\pi_{\theta}(\cdot | x, y_{ < t}) | \text{stopgrad}(q_{\theta}(\cdot | x, f, y_{ < t}))) \\
    &\approx \sum_{t=1}^{T} \left[ \sum_{\hat{y}_t \in \text{top}_K(\pi_{\theta})} \pi_{\theta}(\hat{y}_t | x, y_{ < t}) \cdot \log \frac{\pi_{\theta}(\hat{y}_t | x, y_{ < t})}{\text{stopgrad}(q_{\theta}(\hat{y}_t | x, f, y_{ < t}))} \\
    \quad \quad \quad + \underbrace{\left(1 - \sum_{\hat{y}_t \in \text{top}_K(\pi_{\theta})} \pi_{\theta}(\hat{y}_t | x, y_{ < t})\right) \cdot \log \frac{1 - \sum_{\hat{y}_t \in \text{top}_K(\pi_{\theta})} \pi_{\theta}(\hat{y}_t | x, y_{ < t})}{\text{stopgrad}\left(1 - \sum_{\hat{y}_t \in \text{top}_K(\pi_{\theta})} q_{\theta}(\hat{y}_t | x, f, y_{ < t})\right)}}_{\text{tail}} \right]
    \end{aligned}
    \tag{11}
    $$
    • top-\(K\) 是相对于 Student 的
  • 如果没有 top-K 蒸馏,我们将不得不在内存中保留两份 logits 副本:一份给 Student ,一份给 Teacher
    • Top-K 蒸馏避免了几乎所有的内存开销,且不会显著影响性能,因为在每个 Token 点(Step \(t\)),词表中的大部分 token 在并不包含信息

A.4 Off-Policy Training: Generalization to Logit-Level Losses, 泛化到 Logit-level

  • 下面的 Token-level Off-policy 损失函数为:
    $$\mathcal{L}_{\text{token} }(\theta) := -\color{red}{\frac{1}{\sum_{i=1}^{G} |y_i|}} \sum_{i=1}^{G} \sum_{t=1}^{|y_i|} \color{red}{\min \left( w_{i,t}^{\text{TIS} }, \rho \right)} \min \left( w_{i,t} A_{i,t}, \text{clip}(w_{i,t}, 1 - \varepsilon_{\text{low} }, 1 + \color{red}{\varepsilon_{\text{high} }}) A_{i,t} \right), \tag{12}$$
    • PPO 风格的裁剪 (clipping) (2017) :
      $$ \color{red}{\frac{1}{\sum_{i=1}^{G} |y_i|}} $$
    • 截断重要性采样 (truncated importance sampling) (2025):
      $$ \color{red}{\min \left( w_{i,t}^{\text{TIS} }, \rho \right)} $$
      • 其中:
        $$ w_{i,t}^{\text{TIS} } := \frac{\pi_{\theta_{\text{old} } }(y_{i,t}|x,y_{i,<t})}{\pi_{\text{rollout} }^{\theta_{\text{old} } }(y_{i,t}|x,y_{i,<t})} $$
    • clip-higher (2025) 和固定长度归一化 (2025b):
      $$ \color{red}{\varepsilon_{\text{high} }} $$
    • 其中 \(A_{i,t}\) 表示每个 token 的 Advantage ,且
      $$
      \begin{align}
      w_{i,t} &:= \frac{\pi_{\theta}(y_{i,t}|x,y_{i,<t})}{\pi_{\theta_{\text{old} } }(y_{i,t}|x,y_{i,<t})} \\
      \end{align}
      $$
  • 将其扩展到 Logit-level 损失:
    $$
    \begin{align}
    \mathcal{L}_{\text{logit} }(\theta) := -\color{red}{\frac{1}{\sum_{i=1}^{G} |y_i|}} \sum_{i=1}^{G} \sum_{t=1}^{|y_i|} \color{blue}{\sum_{\hat{y}_{i,t} }} &\color{red}{\min \left( \pi_{\theta_{\text{old} } }(\hat{y}_{i,t} | x, y_{i,<t}), \rho \pi_{\text{rollout} }^{\theta_{\text{old} } }(\hat{y}_{i,t} | x, y_{i,<t}) \right)}\\
    \cdot &\min \left( w_{i,t}(\hat{y}_{i,t}) A_{i,t}(\hat{y}_{i,t}), \text{clip}(w_{i,t}(\hat{y}_{i,t}), 1 - \varepsilon_{\text{low} }, 1 + \color{red}{\varepsilon_{\text{high} }}) A_{i,t}(\hat{y}_{i,t}) \right)
    \end{align}
    \tag{13}$$
    • 其中 \(\hat{y}_{i,t}\) 对位置 \(t\) 处 Rollout \(i\) 的所有可能 token(或 \(\pi_{\theta_{\text{old} } }\) 下最可能的 \(K\) 个 token)求和
      • \(\pi_{\theta_{\text{old} } }\) 下最可能的 \(K\) 个 token 详情参见附录 A.3
    • TIS (Truncated Importance Sampling) 发生了变化
      $$\color{red}{\min \left( \pi_{\theta_{\text{old} } }(\hat{y}_{i,t} | x, y_{i,<t}), \rho \pi_{\text{rollout} }^{\theta_{\text{old} } }(\hat{y}_{i,t} | x, y_{i,< t}) \right)} $$
      • 这里明确地使用 \(\pi_{\theta_{\text{old} } }\) 下的概率来加权每个 logit,而不是依赖对下一个 token 预测期望的蒙特卡洛估计
      • 问题:这里 TIS 为什么相对前面 Token-level 的式子同时乘以了 \(\pi_{\text{rollout} }^{\theta_{\text{old} } }(\hat{y}_{i,t} | x, y_{i,< t})\) ?
        • 采样使用的是 \(\pi_{\text{rollout} }^{\theta_{\text{old} } }\),这本身就相当于乘过 \(\pi_{\text{rollout} }^{\theta_{\text{old} } }\) 了吧
    • 这里 \(A_{i,t}(\hat{y}_{i,t})\) 是每个 logit 的 Advantage
  • 注:在本文对 SDPO 的实验中,在 Token-level 而非 Logit-level 应用 TIS 项

附录 B:Theoretical Analysis

  • 附录 B.1 推导命题 2.1 中的 SDPO 梯度
  • 附录 B.2 推导附录 A.2 中讨论的信任域正则化 Teacher
  • 注:同附录 A,下文中使用:
    $$ q_{\theta}(\cdot | x, f ) := \pi_{\theta}(\cdot | \text{reprompt}(x, f )) $$
    • reprompt 表示 Self-Teacher 的重提示模板

B.1 Proof of Proposition 2.1.

  • 令:
    $$ A_{t,k} := \log \left( \frac{\text{stopgrad}(q_{\theta}(\hat{y}_t|x,f,y_{ < t}))}{\pi_{\theta}(\hat{y}_t|x,y_{ < t})} \right)$$
  • 于是,从上文有 \(\mathcal{L}_{\text{SDPO} }\) 的梯度:
    $$
    \begin{aligned}
    \nabla_{\theta} \mathcal{L}_{\text{SDPO} }(\theta) &= \nabla_{\theta} \sum_{t=1}^{T} \text{KL}(\pi_{\theta}(\cdot | x, y_{ < t}) | \text{stopgrad}(q_{\theta}(\cdot | x, f, y_{ < t}))) \\
    &= \nabla_{\theta} \sum_{t=1}^{T} \sum_{\hat{y}_t} \pi_{\theta}(\hat{y}_t | x, y_{ < t}) \log \left( \frac{\pi_{\theta}(\hat{y}_t | x, y_{ < t})}{\text{stopgrad}(q_{\theta}(\hat{y}_t | x, f, y_{ < t}))} \right) \\
    &= -\nabla_{\theta} \sum_{t=1}^{T} \sum_{\hat{y}_t} \pi_{\theta}(\hat{y}_t | x, y_{ < t}) A_{t,k} \\
    &= -\sum_{t=1}^{T} \sum_{\hat{y}_t} \left( \pi_{\theta}(\hat{y}_t | x, y_{ < t}) \nabla_{\theta} A_{t,k} + A_{t,k} \nabla_{\theta} \pi_{\theta}(\hat{y}_t | x, y_{ < t}) \right)
    \end{aligned}
    $$
  • 由于有
    $$ \nabla_{\theta} A_{t,k} = -\nabla_{\theta} \log \pi_{\theta}(\hat{y}_t | x, y_{ < t})$$
    • 这是负的得分函数 (score function)
  • 使用得分技巧 (score trick)
    $$ \pi_{\theta}(\hat{y}_t | x, y_{ < t}) \nabla_{\theta} \log \pi_{\theta}(\hat{y}_t | x, y_{ < t}) = \nabla_{\theta} \pi_{\theta}(\hat{y}_t | x, y_{ < t})$$
  • 于是第一项简化为
    $$-\sum_{t=1}^{T} \sum_{\hat{y}_t} \pi_{\theta}(\hat{y}_t | x, y_{ < t}) \nabla_{\theta} A_{t,k} = \sum_{t=1}^{T} \sum_{\hat{y}_t} \nabla_{\theta} \pi_{\theta}(\hat{y}_t | x, y_{ < t}) = \sum_{t=1}^{T} \nabla_{\theta} \underbrace{\sum_{\hat{y}_t} \pi_{\theta}(\hat{y}_t | x, y_{ < t})}_{=1} = 0.$$
  • 因此,\(\mathcal{L}_{\text{SDPO} }\) 的梯度是
    $$\begin{aligned}
    \nabla_{\theta} \mathcal{L}_{\text{SDPO} } &= -\sum_{t=1}^{T} \sum_{\hat{y}_t} A_{t,k} \nabla_{\theta} \pi_{\theta}(\hat{y}_t | x, y_{ < t}) \\
    &= -\sum_{t=1}^{T} \sum_{\hat{y}_t} \pi_{\theta}(\hat{y}_t | x, y_{ < t}) \left( A_{t,k} \nabla_{\theta} \log \pi_{\theta}(\hat{y}_t | x, y_{ < t}) \right) \\
    &= -\sum_{t=1}^{T} \mathbb{E}_{\hat{y}_t \sim \pi_{\theta}(\cdot | x, y_{ < t})} \left[ A_{t,k} \nabla_{\theta} \log \pi_{\theta}(\hat{y}_t | x, y_{ < t}) \right].
    \end{aligned}$$
  • 这意味着如果 \(A_{t,k} = \text{stopgrad}\left( \log \frac{q_{\theta}(y_t|x,f,y_{ < t})}{\pi_{\theta}(y_t|x,y_{ < t})} \right)\),则 \(\mathcal{L}_{\text{SDPO} }\) 的梯度等价于上述梯度

B.2 Trust-region Teacher

  • 为稳定训练,本文尝试防止 Teacher \(q\) 偏离初始 Teacher \(\color{red}{q_{\theta_{\text{ref} } }}\)
  • 可以通过对 Teacher \(q\) 施加一个明确的信任域约束 (2015; 2019) 来实现这一点,即:
    $$\sum_{t} \text{KL}(q(y_t | x, f, y_{ < t}) | \color{red}{q_{\theta_{\text{ref} } }}(y_t | x, f, y_{ < t})) \le \epsilon, \quad \epsilon > 0. \tag{14}$$
  • 下面本文推导出一个 Teacher \(q\),它满足信任域约束,同时保持接近目标 \(q_{\theta}\)
  • 以下优化问题刻画了这样一个 \(q\) (2019):
    $$\begin{array}{rl}
    & \underset{q\in \Delta}{\arg \max} \sum_{t} \sum_{y_t} q(y_t \mid x, f, y_{< t}) \log \frac{q_{\theta}(y_t \mid x, f, y_{< t})}{\color{red}{q_{\theta_{\text{ref} } }}(y_t \mid x, f, y_{< t})} \\
    & \qquad \text{s.t.} \sum_{t} \text{KL}(q(y_t \mid x, f, y_{< t}) | \color{red}{q_{\theta_{\text{ref} } }}(y_t \mid x, f, y_{< t})) \le \epsilon,
    \end{array} \tag{15}$$
    • 其中 \(\Delta\) 表示概率单纯形
  • 直观地说,解是满足信任域约束的、最接近 \(q_{\theta}\)(即与 \(q_{\theta}\) 的交叉熵最小)同时最远离 \(\color{red}{q_{\theta_{\text{ref} } }}\)(即与 \(\color{red}{q_{\theta_{\text{ref} } }}\) 的交叉熵最大)的 \(q\)
Proposition B.1.
  • 公式 (15) 的解可以闭式表示为
    $$q^{*}(y_{t}\mid x,f,y_{< t})\propto \exp ((1 - \alpha)\log \color{red}{q_{\theta_{\text{ref} } }}(y_{t}\mid x,f,y_{< t}) + \alpha \log q_{\theta}(y_{t}\mid x,f,y_{< t})). \tag{16}$$
  • Proof
    • 为简化符号,在下文中省略条件
    • 拉格朗日函数(对于 KL 约束有 \(\lambda \ge 0\),对于归一化有 \(\nu\))为
      $$\mathcal{L}(q,\lambda ,\nu) = \sum_{t}\sum_{y_{t} } q(y_{t}) \log \frac{q_{\theta}(y_{t})}{\color{red}{q_{\theta_{\text{ref} }} }(y_{t})} -\lambda \Big( \sum_{y_{t} } q(y_{t}) \log \frac{q(y_{t})}{\color{red}{q_{\theta_{\text{ref} } }}(y_{t})} -\epsilon \Big) + \nu \Big( \sum_{y_{t} } q(y_{t}) - 1 \Big).$$
    • 平稳性条件给出,对于所有 \(y_t\)
      $$0 = \frac{\partial \mathcal{L} }{\partial q(y_t)} = \log \frac{q_{\theta}(y_t)}{\color{red}{q_{\theta_{\text{ref} } }}(y_t)} - \lambda \Big( \log \frac{q(y_t)}{\color{red}{q_{\theta_{\text{ref} } }}(y_t)} + 1 \Big) + \nu.$$
    • 令 \(\alpha := \frac{1}{\lambda}\),于是公式 (15) 的解可以闭式刻画为
      $$
      \begin{align}
      q^{*}(y_t) &\propto \color{red}{q_{\theta_{\text{ref} } }}(y_t) \exp \Big( \alpha \log \frac{q_{\theta}(y_t)}{\color{red}{q_{\theta_{\text{ref} } }}(y_t)} \Big) \\
      \qquad &\propto \exp \big( (1 - \alpha) \log \color{red}{q_{\theta_{\text{ref} } }}(y_t) + \alpha \log q_{\theta}(y_t) \big)
      \end{align}
      $$
      • \(\color{red}{q_{\theta_{\text{ref} } }}(y_t) \) 变成 \(\exp (\log \color{red}{q_{\theta_{\text{ref} } }}(y_t)) \) 即可推导得到
  • 注:Chen 等人 (2025c) 进行了类似的推导,但使用参考策略 \(\pi_{\theta_{\text{ref} } }\)
    • 本文作者观察到这比使用参考策略 \(\color{red}{q_{\theta_{\text{ref} } }}\) 表现更差

附录 C:Additional Related Work

  • Value networks and Monte Carlo advantage estimation

    • 一些先前的方法旨在改进信用分配,但面临着与 GRPO 相同的信息瓶颈
    • 经典 RL 经常训练价值网络来提供 Token-level Advantage ,但这些网络本身是从标量奖励中学习的 (2016; 2017)
      • 而且价值网络会带来显著的计算和内存开销,因此通常不用于训练 LLM
    • 其他近期工作通过从原始尝试中的不同位置开始执行额外的生成来估计 Token-level Advantage (2025; 2025b)
      • 虽然这可以用比 GRPO 更少的梯度步骤进行学习,但它仍然仅使用标量奖励作为信号,并且需要昂贵的额外生成
  • Dense credit assignment with a reward model

    • 近期几项工作研究了在能够访问外部奖励模型的情况下进行密集(每个 token)奖励分配,通常通过利用奖励模型的内部结构来实现 (2024; 2025b)
    • 与此相关的是,Li 等人 (2025b) 认为,通过将下一个 token 预测与离线逆 RL 联系起来,LLM 的 logits 中隐含着一个 Token-level 奖励信号,这实际上为 RL 微调提供了一个无需训练 (training-free) 的奖励模型
  • Partial observability

    • 从经典 RL 的角度来看,LLM 的许多可验证领域本质上是部分可观测的:
      • 执行一个 Proposed 解决方案会引发一个潜在的环境状态(例如,失败的测试或 Agent 系统的状态),该状态仅通过丰富的反馈才会显现
      • 这与部分可观测马尔可夫决策过程 (POMDP) 的形式化方法一致,其中 Agent 必须在状态观测不完整的情况下行动 (1998; 1998)
      • 相反,RLVR 和 RLHF 流程通常会丢弃这个观测通道,并且仅从终端标量奖励或成对偏好中学习
  • Relation to test-time training

    • 本文在第 5 节中的设置可以被视为 Test-time 训练的一个特例
      • 其中模型本身在 Test-time 通过自蒸馏进行更新
    • 在 Test-time 更新模型被称为 Test-time 训练 (2020; 2025; 2024; 2025; 2025; 2026)
    • 与以上提到的工作都不同,自蒸馏使用当前模型的上下文学习能力来在接收反馈后进行信用分配
      • 这可以被视为通过将上下文周期性地压缩到模型权重中来模拟长上下文推理

C.1 SDPO as Maximum Entropy RL

  • SDPO 目标类似于最大熵 RL (例如,2018) 中的目标,但具有特定的奖励函数选择
Maximum Entropy RL
  • Maximum Entropy RL 考虑优化
    $$\arg \max_{\theta} \mathbb{E}_{y\sim \pi_{\theta}(\cdot |x)} \left[ \sum_t r(y_t \mid x, y_{ < t}) \right] + \lambda \text{H}[\pi_{\theta}(\cdot \mid x)], \quad \lambda > 0 \tag{17}$$
    • 其中 \(\pi_{\theta}(y\mid x) = \prod_{t=1}^{T} \pi_{\theta}(y_t \mid x, y_{ < t})\) 且 \(\text{H}[\pi_{\theta}(\cdot \mid x)] = \mathbb{E}_{y\sim \pi_{\theta}(\cdot \mid x)}[-\log \pi_{\theta}(y \mid x)]\) 是策略的熵
    • 且 \(r(y_t \mid x, y_{ < t})\) 是一个任意的奖励函数,可能是“密集的”(即每个 token 的)
  • 公式 (17) 被称为最大熵 RL
    • 已知该目标等价于求解一个变分推理问题,本文接下来将讨论这个问题
  • 本文定义一个伯努利随机变量 \(\mathcal{C}\)
    • 如果尝试 \(y\) 正确则为 1,否则为 0
  • 接着定义其分布为
    $$ p(\mathcal{C} = 1 \mid x, y) \propto \exp \left( \frac{1}{\lambda} \sum_t r(y_t \mid x, y_{ < t}) \right)$$
    • 进一步假设在响应上的“先验”是均匀的,本文可以将在正确性事件条件下的后验表示为
      $$\pi^{\star}(y \mid x) := p(y \mid x, \mathcal{C} = 1) \propto p(\mathcal{C} = 1 \mid x, y) \propto \exp \left( \frac{1}{\lambda} \sum_t r(y_t \mid x, y_{ < t}) \right). \tag{18}$$
  • 那么,公式 (17) 等价于最小化与 \(\pi^{*}\) 的 KL 散度:
    $$\arg \min_{\theta} \sum_t \text{KL}(\pi_{\theta}(y_t \mid x, y_{ < t}) | \pi^{*}(y_t \mid x, y_{ < t})). \tag{19}$$
SDPO optimizes an implicit reward defined by the teacher
  • 公式 (19) 等价于 SDPO 目标 (公式 (1)),其中隐式奖励
    $$ r(y_{t} \mid x, y_{< t}) = \log q(y_{t} \mid x, f, y_{< t})$$
    • 注: \(\lambda = 1\)
  • 从这个意义上说,SDPO 可以被视为一种最大熵 RL 算法,其密集奖励通过回顾模型 (retrospective model) 隐式构建
  • 这也指出了 SDPO 与逆 RL (2000; 2008; 2023) 的联系,后者的目标是恢复未知的奖励函数
  • 在 SDPO 中, Student 学习了由回顾模型定义的隐式奖励函数

附录 D:Additional Results & Ablations

D.1 Learning without rich environment feedback

  • 表 7 报告了为每个模型/任务组合选择最优超参数时的结果,表 7 的具体实验细节如下
    • 问题:
      • 为什么没有数学场景?
    • 本文报告了在 1 小时和 5 小时实际训练时间内达到的最高 avg@16
    • 梯度更新步骤:
      • SDPO 和 on-policy GRPO 每个生成批次执行一个梯度步骤
      • GRPO 执行 4 个 off-policy 小批量步骤
    • 本文根据 5 小时的准确率为 SDPO 和基线选择最优超参数
      • 本文为每个模型和数据集独立执行此选择
    • 每次运行在一个包含 4 个 NVIDIA GH200 GPU 的节点上执行
    • 包括初始化和验证,每次运行大约需要 6 小时
    • 与表 3(为每种方法全局选择最优超参数)不同,表 7 根据 5 小时准确率为每个模型/任务组合单独选择最优超参数
    • 注:超参数网格在附录 E.2.1 中描述
  • 表 8 比较了 SDPO 和 GRPO 的平均响应长度 (对第 3 节中的任务取平均)
    • 两种算法均在 on-policy 设置下进行评估
  • 核心结论:在 without rich environment feedback 的场景中,实验(比如工具调用和材料科学(Materials)等)的结果看,SDPO 训练相同时间得到的效果并没比 On-policy GRPO 和 GRPO 好太多(部分指标甚至没有提升)

D.2 Learning with rich environment feedback

D.2.1 Additional Results
  • 图 15 显示了按问题难度分层的 SDPO 和 GRPO 的平均准确率(训练期间直至第 80 步的平均准确率,按难度分层)
    • LCB 区分了简单 (easy)、中等 (medium) 和困难 (hard) 问题
      • 注:这种问题分类与第 5 节中的不同
    • 如图所示,SDPO 在解决中等和困难问题方面显著优于 GRPO
      • 突显了丰富反馈对具有挑战性任务的重要性
  • 图 16 比较了在 LCBv6 上训练 GRPO 和 SDPO 时不同的 Training Batch Size 和 Rollout 数量
  • 图 17 中展示了使用 Qwen2.5-Instruct (2024) 的额外结果(作为对图 8 所示结果的补充)
D.2.2 Training Stability
  • 图 18 显示了训练期间记录的各种指标
D.2.3 Baselines
  • 表 9 比较了 LCBv6 上各种基线的性能,包括 GRPO 的两种变体、GSPO 和 CISPO 与 SDPO(训练到 80 步的结果)

D.3 Test-time self-distillation

  • 本节作为对第 5 节所示结果的补充
  • 图 20 中展示了所有困难问题的 discovery@k 曲线
    • 注:曲线表示每个问题 5 个随机种子的均值和 90% 置信区间
  • 表 10 中报告了首次发现前的平均生成次数(这里的首次发现就是首次成功的尝试)
  • 表 11 显示了 SDPO 初始训练步骤中 Self-Teacher 在每个问题上的准确率
    • 对于这些困难和非常困难的任务中的大多数, Teacher 的准确率接近或正好为 \(0%\)
    • 即便如此自蒸馏的 Token-level Advantage 仍然足够丰富,SDPO 能够迭代地改进其策略,并在后续的更新中解决这些问题
  • 图 19 对 SDPO 的 Batch Size 和多轮采样的上下文内重提示策略进行了消融研究
    • 左图:SDPO Batch Size 对 pass@k 曲线的影响
      • 较小的 Batch Size (8 和 16) 可以在非常低的生成预算下 \((k< 2^{6})\) 导致稍早的发现
      • 较大的 Batch Size (16, 32) 会产生更稳定的更新,随着预算的增加显著提高发现率
    • 右图:在困难问题子集上多轮重提示模板的比较
      • “仅反馈”模板使用先进先出滑动窗口连接来自先前尝试的反馈
      • “尝试 + 反馈”模板也使用滑动窗口连接完整的对话轮次
      • 仅包含反馈的方法显著优于连接完整对话的方法
  • 注:在困难问题的筛选中,本文丢弃了一个格式错误的问题 (Q9)
    • 因为编码环境由于舍入不准确而无法正确验证解决方案,即使逻辑正确也会导致失败

附录 E:Experiment Details

E.1 Technical setup

  • 所有实验均在配备四块 NVIDIA GH200 GPU(总计 378GB 显存)的单个节点上进行
    • 每张显卡的显存是 94.5GB ?
  • 本文的环境基于 NVIDIA PyTorch 容器 nvcr.io/nvidia/pytorch:25.02-py3 构建,使用 CUDA 12.8 和 PyTorch v2.7.0
  • 本文的实现基于 ver1 库 (2025)
    • 本文使用 PyTorch 全分片数据并行(FSDP2)进行分布式训练
    • 对于 Rollout 生成,本文采用 vLLM (2023),它能在多 GPU 节点上实现高效的批量推理

E.2 Hyperparameters

  • 表 12 中总结了用于 SDPO 的超参数
  • 表 13 中总结了用于 GRPO 的超参数
  • 对于第 3 节的实验,本文对 GRPO 进行了学习率 \(\{10^{-5}, 10^{-6}\}\) 和小 Batch Size {8, 32} 的网格搜索
    • 对于 on-policy GRPO,本文在固定小 Batch Size 为 32 的情况下搜索相同的学习率
    • 对于 SDPO,本文对 KL 变体(前向 KL,Jensen-Shannon)、学习率 \(\{10^{-5}, 10^{-6}\}\) 和小 Batch Size {8, 32} 进行了网格搜索
    • 对于每种方法(GRPO、on-policy GRPO 和 SDPO),本文选择了一个超参数配置,该配置在训练的前 5 小时内,在第 3 节使用的所有数据集和模型上取得了最高的验证准确率
    • 表 3 中报告了为每个模型和数据集单独选择最佳超参数配置所获得的结果

E.3 User Templates

  • 对于多项选择题和工具使用,必须以特定于任务的方式提示模型

  • 因此,本文在下面提供了用于这些设置的 Prompt 模板

  • Listing 1: System prompt: Multiple Choice Questions

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    Given a question and four options, please select the right answer. Respond in the following format:

    <reasoning>
    ...
    </reasoning>
    <answer>
    ...
    </answer>

    For the answer, only output the letter corresponding to the correct option (A, B, C, or D), and nothing else. Do not restate the answer text. For example, if the answer is "A", just output:

    <answer>
    A
    </answer>
  • Listing 2: User prompt: Multiple Choice Questions

    1
    {question} Please reason step by step.
  • Listing 3: Example user prompt: Tool use

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    Your task is to answer the user's question using available tools. You have access to the following tools:

    Name: Axolotl
    Description: Collection of axolotl pictures and facts
    Documentation:
    getRandomAxolotlImage: Retrieve a random axolotl image with information on the image source.
    Parameters:
    Output: Successful response.
    - Format: application/json
    - Structure: Object{url, source, description}
    SearchAxolotlImages: Search for axolotl images based on specific criteria such as color, gender, and size.
    Parameters:
    {"color": "string. One of: [wild, leucistic, albino]. The color of the axolotl (e.g., 'wild', 'leucistic', 'albino', etc.)",
    "gender": "string. One of: [male, female]. The gender of the axolotl ('male', 'female')",
    "size": "string. One of: [small, medium, large]. The size of the axolotl ('small', 'medium', 'large')",
    "page": "integer. The page number for pagination purposes."}
    Output: Successful response.
    - Format: application/json
    - Structure: Object{results: Array[Object{url, source, description}], pagination: Object{current_page, total_pages, total_results} }
    getAxolotlFacts: Retrieve interesting facts about axolotls such as their habits, habitats, and physical characteristics.
    Parameters:
    {"category": "string. One of: [habits, habitat, physical characteristics]. The category of facts to retrieve (e.g., 'habits', 'habitat', 'physical characteristics')",
    "limit": "integer. The maximum number of facts to return."}
    Output: Successful response.
    - Format: application/json
    - Structure: Array[Object{fact, source}]

    Use the following format:
    Thought: you should always think about what to do
    Action: the action to take, should be one of the tool names.
    Action Input: the input to the action, must be in JSON format. All of the action input must be realistic and from the user.
    Begin!
    Question: Hey, can you show me a random picture of an axolotl?

附录 F:Qualitative Examples

F.1 Visualization of Advantages

  • 图 21 在一个代表性示例中比较了 SDPO 和 GRPO 的 Advantage
    • SDPO 和 GRPO 中 Advantage 的可视化,使用 Olmo3-7B-Instruct,在第 3 节化学任务的一个批次中
    • 每一行对应一个 Response 的开头
    • 颜色表示该 Token 位置的 Advantage 值
      • 蓝色表示正 Advantage
      • 红色表示负 Advantage

F.2 Examples

  • 下面是一个使用 Qwen3-8B 在 LCBv6 上训练 SDPO 的示例
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    41
    42
    43
    44
    45
    46
    47
    48
    49
    50
    51
    52
    53
    54
    55
    56
    57
    58
    59
    60
    61
    62
    63
    64
    65
    66
    67
    68
    69
    70
    71
    72
    73
    74
    75
    76
    77
    78
    79
    80
    81
    82
    83
    84
    85
    86
    87
    88
    89
    90
    91
    92
    93
    94
    95
    96
    97
    98
    99
    100
    101
    102
    103
    104
    105
    106
    107
    108
    109
    110
    111
    112
    113
    114
    115
    116
    117
    118
    119
    120
    121
    122
    123
    124
    125
    126
    127
    128
    129
    130
    131
    132
    133
    134
    135
    136
    137
    138
    139
    140
    141
    142
    [Prompt]
    You are a coding expert. You will be given a coding problem, and you need to write a correct Python program that matches the specification and passes all tests. The time limit is 1 second. You may start by outlining your thought process. In the end, please provide the complete code in a code block enclosed with "``` ```".

    You are given a binary string s of length n, where:

    '1' represents an active section.
    '0' represents an inactive section.

    You can perform at most one trade to maximize the number of active sections in s. In a trade, you:

    - Convert a contiguous block of '1's that is surrounded by '0's to all '0's.
    - Afterward, convert a contiguous block of '0's that is surrounded by '1's to all '1's.

    Return the maximum number of active sections in s after making the optimal trade.
    Note: Treat s as if it is augmented with a '1' at both ends, forming t = '1' + s + '1'. The augmented '1's do not contribute to the final count.

    Example 1:

    Input: s = "01"
    Output: 1
    Explanation: Because there is no block of '1's surrounded by '0's, no valid trade is possible. The maximum number of active sections is 1.

    Example 2:

    Input: s = "0100"
    Output: 4
    Explanation:
    String "0100" -> Augmented to "101001". Choose "0100", convert "101001" -> "100001" -> "111111". The final string without augmentation is "1111". The maximum number of active sections is 4.

    Example 3:

    Input: s = "1000100"
    Output: 7
    Explanation:
    String "1000100" -> Augmented to "110001001". Choose "000100", convert "110001001" -> "110000001" -> "111111111". The final string without augmentation is "1111111". The maximum number of active sections is 7.

    Example 4:

    Input: s = "01010"
    Output: 4
    Explanation:
    String "01010" -> Augmented to "1010101". Choose "010", convert "1010101" -> "1000101" -> "1111101". The final string without augmentation is "111110". The maximum number of active sections is 4.

    Constraints:

    1 <= n == s.length <= 10^5
    s[i] is either '0' or '1'

    Your solution should have the following signature: "python def maxActiveSectionsAfterTrade(s: str) -> int:"

    [Response]
    <think>
    </think>

    To solve this problem, we need to understand the structure of the string and the trade operation. Here's the plan:

    ### Key Insights:

    1. We are given a binary string 's', and we are allowed **at most one trade**.
    2. A **trade** consists of two steps:
    - Convert a contiguous block of '1' that is **surrounded by '0'** into '0' (i.e., flip it).
    - Then convert a contiguous block of '0' that is **surrounded by '1'** into '1' (i.e., flip it).
    3. The actual count of active sections is the number of '1' characters **after** the trade. The augmented '1' at the beginning and end do not count in the final result.

    ### Strategy:

    - We simulate the trade by considering each possible way to flip a block of "1" (bounded by "0") and then a block of "0" (bounded by "1").
    - For each possible valid block, simulate the trade and compute the resulting number of "1" characters.
    - We only need to consider the original string "s", not the augmented one (since we can simulate the trade directly on "s" by checking boundaries).

    We'll use a sliding window technique to find contiguous blocks of "1" and "0" and simulate the trade.

    ### Implementation Steps:

    1. Simulate the trade by checking for a block of "1" surrounded by "0" or at the edges (we simulate the augmented "1" at both sides).
    2. For each such block, simulate converting it to "0", then convert a "0" block (again, surrounded by "1") to "1".
    3. Count the number of "1" in the final string and track the maximum.

    ### Python Code:

    '''python
    def maxActiveSectionsAfterTrade(s: str) -> int:
    if not s:
    return 0
    max_ones = 0
    n = len(s)
    # We are simulating the augmented "1" on both ends, so we treat the boundaries as '1's
    # So '0' at index 0 or n-1 is considered surrounded by '1's

    # Step 1: Find all candidate positions for the first part of the trade
    # (convert a block of 1s surrounded by 0s into 0s)
    for i in range(n):
    if s[i] == '1':
    start = i
    while i < n and s[i] == '1':
    i += 1
    end = i - 1
    # Check if this block is surrounded by '0's
    left_boundary = (start == 0 or s[start - 1] == '0')
    right_boundary = (end == n - 1 or s[end + 1] == '0')
    if left_boundary and right_boundary:
    # This is a candidate block of '1's to flip
    # Now, look for a block of '0's surrounded by '1's in the remaining string
    # Replace the '1' block with '0's
    # Now find a '0' block surrounded by '1's
    # We can simulate the remaining string
    temp = list(s)
    for j in range(start, end + 1):
    temp[j] = '0'
    # Now find a contiguous block of '0's surrounded by '1's
    max_trade_ones = 0
    for k in range(n):
    if temp[k] == '0':
    start0 = k
    while k < n and temp[k] == '0':
    k += 1
    end0 = k - 1
    # Check if this block is surrounded by '1's
    left0 = (start0 == 0 or temp[start0 - 1] == '1')
    right0 = (end0 == n - 1 or temp[end0 + 1] == '1')
    if left0 and right0:
    # Flip this block of '0's to '1's
    for j in range(start0, end0 + 1):
    temp[j] = '1'
    # Count the number of '1's
    count = sum(temp)
    max_ones = max(max_ones, count)
    break # Only take the first valid block for this trade
    # After trying this '1' block, restore the original string
    # No need, we just used a copy
    return max_ones
    '''

    #### Optimization Note:
    The above approach is **not optimal** for very large strings. A more efficient method would involve precomputing the positions of blocks of '1' and '0', and checking valid trades between these blocks in linear time.

    But with the constraints given (up to 10^5), we need to ensure linear or near-linear performance. The current code is correct but **not efficient** for large inputs.

    Would you like me to provide a more optimized version that runs in **O(n)** time and uses only one pass through the string?

    [Feedback]
    b'Runtime Error\nTypeError: unsupported operand type(s) for +: \'int\' and \'str\'\nLine 48 in maxActiveSectionsAfterTrade (Solution.py)\n\nLast Executed Input\n"11000"'

F.3 Environment Feedback

  • 本文在代码环境中展示了三个反馈示例,灵感来自 LeetCode

  • Listing 4: Example of feedback “Wrong Answer” from our code environment in case of a wrong answer, inspired by LeetCode

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    Test Case 3: Wrong Answer
    Input
    [[3,6,1],[4,21,4]]
    Output
    6
    Expected
    22.87500

    Test Case 6: Wrong Answer
    Input
    [[12,25,3],[3,14,2]]
    Output
    14
    Expected
    25.83333
  • Listing 5: Example of feedback “Memory Error” from our code environment in case of a wrong answer, inspired by LeetCode

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    Runtime Error
    MemoryError:
    Line 91 in <module> (Solution.py)
    Line 25 in solve (Solution.py)

    Last Executed Input
    10
    633 9312
    1314 8548
    8857 1062
    6410 3289
    8594 1263
    8549 733
    3858 5973
    ... (3 more lines)
  • Listing 6: Example of feedback “Index Error” from our code environment in case of a wrong answer, inspired by LeetCode

    1
    2
    3
    4
    5
    6
    Runtime Error
    IndexError: list index out of range
    Line 28 in sortMatrix (Solution.py)

    Last Executed Input
    [[-1,-1,-1,-1,-1,-1,-1,-2,-1,-1,-1,-1,-1,-1,-

F.4 Illustrative Example,说明性示例

  • 图 22 展示了 SDPO 中密集信用分配的一个说明性示例
    • 图 22 为通过 SDPO 中的自教学进行密集信用分配
    • 答案由模型(Qwen3-8B)在看到反馈之前生成
    • 在看到反馈后,用 Self-Teacher 重新评估原始尝试的 log-prob
    • 本文展示了每个 Token 的
      $$ \log (\frac{\text{P}(\text{self-teacher})}{\text{P}(\text{student})})$$
      • 红色表示负值( Self-Teacher 不同意)
      • 蓝色表示正值( Teacher 强化)
      • 白色表示接近于零的值
    • 奖励分配:
      • GRPO 使用二元奖励,且会给序列中的所有 Token 分配相同的负 Advantage
      • SDPO 将反馈转化为序列上的密集信用分配
    • 第一行显示生成的 Response 的 Token
    • 其他 3 行显示 Self-Teacher 用于自蒸馏的 top-\(k\) logits,暗示了替代 Token
      • 理解:这里的三行表示每个 Token 位置最可能得前三个候选 Token
    • 在这个例子中, Self-Teacher 通过回溯识别了错误,而没有明确的解决方案
      • 对生成序列的信用分配,以及替代的 top-\(k\) logits,正确表明将 set 替换为 dict 可以保持元素的顺序
    • 在第七个显示的位置,模型还识别了一个替代的解决方案路径,该路径从已看到的 Token 开始,而不是直接返回输出
      • 激活是稀疏的,识别出错误发生的位置,并专门针对这几个 Token 调整 Student 的 Response 分布

NLP——LLM对齐微调-SDPO(Segment-Level-DPO)

注:本文包含 AI 辅助创作

  • 参考链接:
    • 原始论文:(Segment-Level-DPO)SDPO: Segment-Level Direct Preference Optimization for Social Agents, 202502, Nankai, Alibaba
      • 论文 GitHub 开源网址:AlibabaResearch/DAMO-ConvAI
      • 论文是 南开实习生在阿里实习时的工作

Paper Summary

  • 整体说明:
    • 论文提出了 Segment-level 直接偏好优化(Segment-Level Direct Preference Optimization, SDPO),用于提升 LLM-based Agent 在多轮社交对话中 的表现
    • 对比:与现有的多轮对齐方法(如 ETO 和 DMPO)不同:SDPO 通过聚焦 Session 中的关键片段(key segments)来优化 Agent 策略
  • 背景 & 问题:
    • LLM 驱动的社交 Agent 能够模拟人类社交行为,但在处理复杂社交对话时仍存在不足
    • DPO 在多种 Agent 任务中已被证明能有效对齐 LLM 行为与人类偏好
      • 标准 DPO 仅关注单轮对话,这限制了其在多轮社交互动中的效果
      • 一些基于DPO的多轮对齐方法(利用 Session-level 数据)已展现出解决这一问题的潜力
    • 这些方法考虑了整个 Session 中的多轮对话,但其粒度通常过于粗糙,会引入训练噪声,且缺乏坚实的理论支持
  • 本文解法:SDPO
    • 该方法通过动态选择交互中的关键分段(Segment)来优化多轮 Agent 行为
    • SDPO 能够最小化训练噪声,并建立在严格的理论框架之上
    • 在 SOTOPIA 基准测试上的评估表明,经 SDPO 调优的 Agent 在性能上 consistently 优于现有的基于 DPO 的方法以及 GPT-4o 等专有 LLM,这凸显了 SDPO 在提升 LLM-based Agent 社交智能方面的潜力
  • 注:论文的代码和数据已开源

Introduction and Discussion

  • LLM 的进步显著提升了其在语言理解和生成方面的能力,尤其是在人机交互领域
  • 通过融入身份特定信息,LLM-based Agent 能够模拟人类社交行为,在角色扮演休闲对话[22, 23]和模拟社交环境导航[24]等任务中展现出基本的社交智能
  • 然而,近期研究表明,在更复杂的、目标导向的社交场景(如谈判、竞争与合作)中,LLM 仍难以表现出人类社交互动中特有的细腻决策能力
  • 为应对这些挑战,研究者们开发了多种方法以更好地对齐 LLM 行为与人类偏好
    • 这些方法为改进 LLM 的社交决策提供了有前景的策略
  • 论文关注基于直接偏好优化(DPO)的方法。标准 DPO 通过识别单轮对话,并利用该轮中的“ Positive-Negative”响应对,通过偏好损失函数优化模型
    • 尽管 DPO 已展现出一定效果,但其对单轮对话的关注限制了其在目标导向社交对话中建模目标完成的能力,因为这类对话的成功通常依赖于跨越多轮的高质量互动
  • 为更有效地对齐多轮互动中的 Agent 行为,研究者提出了多种多轮对齐方法,包括 ETO[20]和 DMPO[26]
    • 这些方法将采样范围从单轮扩展至整个 Session ,通过构建 “good and bad” 的 Session 对并应用改进的 DPO 损失进行训练
    • 论文将这些方法归类为 Session-level DPO,它们在数据粒度和理论基础上均存在局限性
  • 从数据角度来看,Session-level DPO 因其较粗的对齐粒度而存在以下缺陷:
    • (i) Negative Session 中无错误的轮次也会被误判为 Negative 输出 ,从而引入大量噪声,对训练过程产生 Negative 影响
    • (ii) 从零开始采样为对话者(interlocutor)提供了巨大的行动空间。 Positive Session 的高分可能源于对话者行为的改变 ,这使得模型难以从 Positive 样本中学习正确的行为模式
      • 理解:这里是说高分 Session 可能不是 Agent 回答的好,而是 Interlocutor 回答的好
  • 从理论角度来看,在多轮场景中,直接应用 DPO 无法消除配分函数(partition function) \( Z \)(2024)
    • ETO 将 DPO 损失扩展至多轮互动,但缺乏形式化的理论保证
    • DMPO 结合了 SAOM 理论,成功将 \( Z \) 转换为常数;
    • 然而,由于 Positive 和 Negative Session 的轮次数量不同,DMPO 通过启发式长度归一化消除 \( Z \),但缺乏严格的数学证明
    • 这部分的详细的理论分析见附录B.2
  • 为克服 Session-level DPO 的局限性,论文提出了 Segment-level 直接偏好优化(SDPO)
    • 论文的方法将采样起点向后移动,并截断 Session 末尾的无用内容,从而获取关键分段对以细化粒度
    • 同时,论文确保 Positive 和 Negative 分段的轮次数量一致,从而消除 \( Z \) 并严格推导出 SDPO 损失
  • 具体而言,SDPO 的做法如下:
    • 识别 Negative Session 中的错误轮次 ,利用该错误轮次之前的交互历史进行多次采样 ,生成 Positive Session
      • 问题:怎么识别到错误轮次呢?回答:见后面的章节
    • 以首个差异轮次为起点,从 Positive Session 中选择有助于提升分数的关键分段 ,并从 Negative Session 中截取相同长度的对应分段以形成数据对
      • 问题:如何评估有助于提升分数?回答:见后面的章节
    • 针对分段内的轮次计算 SDPO 损失
  • 论文在图1中展示了三种社交对话(social dialogues)对齐算法的概览
  • 在数据层面,SDPO 能够解决 Session-level DPO 的缺陷,SDPO 优点如下:
    • (i) 仅针对 Negative 和 Positive 分段中的轮次计算损失,从而大幅消除了非错误轮次引入的训练噪声
    • (ii) 从错误轮次开始采样缩小了对话者的行动空间,使得采样得到的 Positive Session 更可能包含 Agent 的正确行为模式
      • 理解:这是相对上面 Session-level 对话对应的问题
  • 在理论上,得益于分段选择的灵活性,SDPO 能够控制 Positive 和 Negative 分段的轮次数量以确保一致性,从而消除 \( Z \) 并得到一个简洁而严谨的 SDPO 损失
  • 我们通过 SOTOPIA(2024)这一开放、交互式的社交智能基准测试对我们的方法进行了实证评估
    • 实验采用了自对话(self-chat)以及与其他智能体(包括 GPT-4o 和 GPT-4o-mini)的交互形式
    • 结果表明,经过 SDPO 调优的智能体在性能上始终优于 DPO、ETO、DMPO 等现有方法,甚至超越了 GPT-4o 等专有大语言模型,这充分证明了 Segment-level 对齐(segment-level alignment)的有效性
  • Segment level 是一种更灵活且统一的数据粒度,能够根据不同数据对动态选择优化范围,同时优雅地解决了多轮对齐的理论挑战。在论文中,我们主要将SDPO应用于提升智能体的社交智能,但我们相信该方法同样适用于其他场景,从而进一步扩展智能体在不同领域的能力
  • 论文的主要贡献包括以下三点:
    • 提出了 SDPO,这是一种新颖的多轮对齐算法,为 Segment-level 偏好数据对的构建提供了完整的流程,实现了更高效的对齐粒度
    • 指出了现有多轮对齐方法在理论上的局限性,并通过分段粒度(segment-level granularity)的灵活性解决了这些问题,严谨地推导出了一个简洁的 SDPO 损失函数公式
    • 在 SOTOPIA 这一模拟交互式社交基准测试上评估了论文的方法,SDPO 的表现及深入分析证明了 Segment-level 对齐的有效性和鲁棒性

Preliminary

SOTOPIA Environment

  • SOTOPIA 提供了一个交互式、开放且逼真的模拟环境,能够更精准地评估 Agent 的社交智能(不同于其他静态问答形式测试的社交基准(2019; 2024)不同)
    • SOTOPIA 中的社交任务包含一个场景、两个角色档案及其需要通过互动达成的私人社交目标
    • 场景与社交目标的多样化组合涵盖了谈判、合作与竞争等广泛的社交互动类型
    • SOTOPIA 定义了七个评估社交 Agent 的维度
  • 论文主要关注“目标(goal)”(0 to 10,int)和“关系(relationship)”(-5 to 5,int)
    • 因为 GPT-4o 在这些指标上的评分与人类评估高度一致
  • SOTOPIA-\(\pi\)(2024a)是一项后续工作,利用 GPT-4 自动构建了一组场景(与 SOTOPIA 完全不重叠),作为本研究的训练数据集
  • 此外,论文重构了 SOTOPIA 的提示组织格式以支持多轮对齐,具体细节见附录A

Task Formulation

  • 在 SOTOPIA 任务中,论文将 Agent 可用的背景信息记为 \( b \),包括场景、角色档案及其目标
  • Agent 在第 \( n \) 轮面临的交互历史 \( h_n \) 定义如下:
    $$
    h_n =
    \begin{cases}
    b, y_0, y’_0, \ldots, y_{n-1}, y’_{n-1}, & \text{if speak first} \\
    b, y’_0, y_0, \ldots, y_{n-1}, y’_n, & \text{if speak later}
    \end{cases} \tag{1}
    $$
    • \( y_i \sim \pi_\theta(\cdot|h_i) \) 表示 LLM-based Agent 在第 \( i \) 轮根据其策略 \( \pi_\theta \) 和参数 \( \theta \) 生成的输出;
    • \( y’_i \) 表示对话者的输出,其服从一个未知分布
  • 基于此形式化,论文在附录B.1和B.2中分别给出了 ETO 和 DMPO 的损失函数

Direct Preference Optimization

  • Rafailov 等 (2023) 提出了直接偏好优化(DPO),该方法利用成对偏好数据训练策略模型,而无需依赖强化学习(2022)。在社交对话场景中,论文将错误轮次编号记为 \( e \),DPO 损失函数定义如下:
    $$
    L_{DPO} = -\mathbb{E}_{(h_e, y^w_e, y^l_e) \sim D} \log \sigma
    \left[ \beta \log \frac{\pi_\theta(y^w_e|h_e)}{\pi_{ref}(y^w_e|h_e)} - \beta \log \frac{\pi_\theta(y^l_e|h_e)}{\pi_{ref}(y^l_e|h_e)} \right], \tag{2}
    $$
    • 其中 \( y^w_e, y^l_e \sim \pi_\theta(\cdot|h_e) \) 分别表示错误轮次中的 Positive 和 Negative 输出
  • 然而,由于其单轮优化的特性,DPO 并不适合社交对话
    • 将 DPO 严谨地扩展至多轮场景是一个待解决的挑战,论文将在第3.3节中探讨这一问题

Method

Behavioral Cloning

  • 注:使用 Behavioral Cloning 初始化 Agent
  • Behavioral Cloning(BC)作为一种有效的模仿学习方法,被广泛应用于各类 LLM-based Agent 构建中
  • 在本研究中,论文使用 GPT-4-turbo 作为专家模型,通过自对话(self-chat)以及与 GPT-4o 的交互,在 SOTOPIA-\(\pi\) 数据集上收集专家 Session 数据
  • 基于这些数据,论文对开源大语言模型(如 Llama-3.1)进行微调,构建了实验所需的初始社交 Agent

Preference Data Construction

  • 构建高质量的 Segment-level偏好数据对是本方法的核心
  • 在 SOTOPIA-\(\pi\) 数据集上,论文的社交 Agent 通过自对话以及与 GPT-4o 的交互生成数据
  • 论文设定目标维度(goal dimension)的阈值为 7,所有目标完成度低于此阈值的对话均被视为潜在的负样本
  • 给定一个负样本 Session,生成 Segment-level 数据对的流程包括以下三个步骤(如图2 所示):
  • 错误定位(Error Location)
    • 与数学等具有明确错误定义的场景不同,社交对话中的错误是一个相对模糊的概念
    • 在负样本 Session 中,如果论文的 Agent 在某一轮次(turn)的回应满足以下条件,则将该轮次 Token 为错误轮次:
      • (1) 该轮次对实现角色目标至关重要;
      • (2) 当前回应在目标完成度或双方关系改善方面仍有提升空间
    • 注:错误定位由 GPT-4o 完成,具体提示词(prompt)见附录 C.3
  • 正样本 Session 采样(Positive Session Sampling)
    • 在错误定位后,基于该轮次之前的交互历史,论文采样 5 个完整 Session
    • 从这些 Session 中选择目标分和关系分(优先考虑目标分)最高的一个
      • 如果最优 Session 的目标分或关系分高于负样本,则该 Session 与负样本组成数据对;
      • 否则丢弃该负样本
  • 段选择(Segment Selection)
    • 获得 Session-level 数据对后,论文将正负样本同时提供给 GPT-4o,提示其从正样本中选择一个段(segment)
      • 该段应包含对正样本获得更高目标分和关系分起到关键作用的部分
      • 接着从负样本中提取相同长度的段,与正样本段配对形成 Segment-level 数据对
      • 问题:相同长度的段是什么意思?正负样本对的段不一定都完全一样吧
    • 这一过程旨在排除与 Session 目标无关的轮次(如寒暄内容)
    • 注:给 GPT-4o 的提示词见附录 C.3
  • 论文评估了 GPT-4o 在错误定位和段选择任务中的表现,结论显示其能够有效完成这两项任务,详细分析见附录 C.2

SDPO Loss

  • 论文将 DMPO 的框架迁移到对话领域,并首先引入状态-动作占用测度(State-Action Occupancy Measure,SAOM)
  • 在此框架下:
    • 交互历史 \( h \) 作为状态(state),Agent 的输出 \( y \) 作为动作(action)
    • 策略 \( \pi \) 的折扣 SAOM \( d^{\pi}(h, y) \) 定义如下:
      $$
      d^{\pi}(h = h_t, y = y_t) = \gamma^t \cdot P(h_0) \cdot \prod_{k=0}^{t-1} \pi(y_k | h_k) P(h_{k+1} | h_k, y_k), \tag{3}
      $$
      • \( \gamma \) 为折扣因子
    • 基于 \( d^{\pi} \) 的强化学习目标为:
      $$
      \max_{\pi_\theta} \mathbb{E}_{(h,y) \sim d^{\pi_\theta}(h,y)} [r(h, y)] - \beta \mathbb{D}_{KL} [d^{\pi_\theta}(h,y) || d^{\pi_{ref} }(h,y)], \tag{4}
      $$
    • 根据 DPO,式(4)的最优解为:
      $$
      d^{\pi^*}(h,y) = \frac{1}{Z} d^{\pi_{ref} }(h,y) \exp \left( \frac{1}{\beta} r(h,y) \right), \tag{5}
      $$
      • \( \pi^* \) 为最优策略
      • \( Z \) 为归一化概率的配分函数(partition function)
  • 由于 \( d^{\pi}(h,y) \) 是 \( (h,y) \) 对的函数,对其进行归一化会导致配分函数 \( Z \) 与当前历史 \( h \) 无关
    • 因此,\( Z \) 对所有 \( (h,y) \) 对均为常数,这是消除 \( Z \) 的关键步骤
  • 奖励函数的形式为:
    $$
    r(h,y) = \beta \log \frac{d^{\pi^*}(h,y)}{d^{\pi_{ref} }(h,y)} + \beta \log Z. \tag{6}
    $$
  • 随后,论文使用 Bradley-Terry(BT)模型对偏好分布建模
    • 在这一步中,DMPO 错误地重复计算了式(3)中的 \( \gamma \),并在后续步骤中启发式地对长度进行归一化以消除 \( Z \),但缺乏严格证明(详细讨论见附录 B.2)
  • 给定偏好数据对,BT 模型的正确应用如下:
    $$
    p(\tau^w \succ \tau^l | h_0) = \sigma \left( \sum_{t=0}^{T_w - 1} r(h_t^w, y_t^w) - \sum_{t=0}^{T_l - 1} r(h_t^l, y_t^l) \right), \tag{7}
    $$
    • 其中 \( \tau^w \) 和 \( \tau^l \) 分别表示“胜”和“负”样本,\( T_w, T_l \) 为各自的轮次数
    • Session-level DPO 无法控制正负样本的长度,由于通常 \( T_w \neq T_l \),配分函数 \( Z \) 无法直接在式(7)中抵消
      • 理解:正负样本通常不同,此时配分函数是消不掉的
  • 与这些方法不同,SDPO 从正负样本中各选一个段进行优化,可以自由控制其长度
    • 通过确保两段长度相同,论文能够直接消除式(7)中的 \( Z \)
    • 同时,结合式(3)替换 \( d^{\pi} \),论文得到以下简洁的 SDPO 损失函数:
      $$
      L_\text{SDPO} = -\mathbb{E}_{(h_e, h^w, h^l) \sim D} \log \sigma \left[ \sum_{t=e}^{e+k} \beta \left( \log \frac{\pi_\theta(y_t^w | h_t^w)}{\pi_{ref}(y_t^w | h_t^w)} - \log \frac{\pi_\theta(y_t^l | h_t^l)}{\pi_{ref}(y_t^l | h_t^l)} \right) \right], \tag{8}
      $$
      • \( e \) 表示错误轮次的编号
      • \( k \) 为所选段中的总轮次数

Experiments

Datasets

  • 训练使用的 SOTOPIA-\(\pi\) 共包含 410 个场景:
    • 其中 100 个场景用于行为克隆(Behavioral Cloning, BC),每个场景包含 10 对角色;
    • 310 个场景用于对齐,每个场景包含 8 对角色
    • 测试使用的 SOTOPIA 包含 90 个场景,每个场景包含 5 对角色,总计 450 个自对话任务和 900 个非自对话任务

Experimental Setup

  • 训练(Training)
    • 论文主要使用 Llama-3.1-8B-Chat 作为基础 LLM 来构建社交 Agent
    • 最大 token 限制设置为 4096
    • 所有训练过程均采用 AdamW 优化器
    • 在 SFT 阶段:
      • 批大小为 32
      • dropout 率为 0.2
      • 学习率为 \(1 \times 10^{-5}\)
      • 预热比例为 5%
      • 采用余弦衰减调度
    • 在 SDPO 的对齐训练阶段:
      • 批大小保持为 32
      • SDPO 损失中的 \(\beta\) 设为 0.1
      • 学习率为 \(1 \times 10^{-6}\)
      • 无预热
      • 采用余弦衰减调度
    • SDPO 训练数据的统计细节见附录 C.1
  • SOTOPIA
    • 在正样本采样过程中:
      • 目标 Agent 的温度(temperature)设置为 1.0
      • 另一 Agent 的温度设置为 0.7
    • 测试时:
      • 论文将两个交互 Agent 的温度均设为 0.7
      • 尽管温度会为 Agent 的输出引入随机性,但论文发现评估结果在数值上保持稳定,因此论文基于单次测试报告结果(吐槽:这么稳定吗?仅单次报告就行?)

Baselines

  • 论文将提出的 SDPO 与以下几种强基线方法进行比较:
    • 1)OpenAI 的专有大语言模型(如 GPT-4o),具体版本见附录 D.1
    • 2)监督微调行为克隆(SFT Behavioral Cloning) :在专家交互数据上微调 LLM,生成的模型作为 SDPO 及其他基线的基础 Agent
    • 3)直接偏好优化(DPO) :基于单轮数据优化 Agent 策略,具体针对 SDPO 中正负样本的首个差异轮次
    • 4)基于探索的轨迹优化(ETO) :使用 Session-level 数据优化 Agent 策略
      • ETO 使用与 SDPO 相同的负样本 Session,但从头采样五个新 Session 来构成数据对
    • 5)动态多轮偏好优化(DMPO) :使用与 ETO 相同的数据,但采用 DMPO 新的损失函数更新策略
    • 6)偏好监督微调(Preferred-SFT) :在 SDPO 的正样本 Session 上微调基础 Agent

Results

  • 表1 展示了 SDPO 和所有基线方法在 SOTOPIA 上的结果
  • 如表所示,在目标和关系两个维度上,SDPO 显著优于标准 DPO、 Session-level 的 ETO 和 DMPO,甚至大幅超越 GPT-4o 等专有 LLM,凸显了 Segment-level 对齐的有效性
  • 通过分析 SOTOPIA 中的交互历史,论文发现较弱的 Agent 通常表现出固执性,仅重复表达需求,导致目标和关系水平较低,尤其是在自对话场景中
  • 使用专家数据进行行为克隆可以有效改善这种情况,使 Agent 更具沟通性
  • Llama-8B+BC 在与 GPT-4o 交互时目标率(goal rate)下降的原因是 Agent 变得更具说服力
  • 论文还观察到,对齐后的 Agent 在目标和关系(goal and relationship)上同时提升,这表明对齐方法确实增强了模型的社会智能(social intelligence),而非通过违反社会规范的行为(如威胁或欺骗)实现目标
  • 论文也在 Mistral-Instruct-v0.3 上重复了上面的实验,实验结果见 表2,实验设置的细节见附录 D.2
    • 在这些实验上,SDPO 也一致超过了基线模型,展示了其泛化性

Analysis

  • 模型输出长度的变化(Variation in Model Output Length)
    • 图3 展示了各种 Agent 与 GPT-4o 交互时的输出长度
      • 与 BC Agent 相比,所有对齐方法均增加了 Agent 的输出长度
      • 这种现象在将 DPO 应用于 AI 聊天机器人时常见
      • 但与用户对长回复的潜在偏见不同,有效的社交策略通常需要更多 token 进行沟通,因此输出长度的增加是合理的
    • 此外,论文实验在 SDPO 调优的 Agent 达到 10 轮交互时终止对话,以在相似 token 数量下比较性能
      • 结果显示,SDPO 仍优于其他多轮方法,表明 SDPO 调优的 Agent 能更高效地利用词汇
  • 正样本利用效率(Efficiency of Positive Sample Utilization)
    • 图4 展示了 Session-level 和 Segment-level 正样本的质量对比
      • 在采样次数一致的情况下, Session-level 正样本在目标和关系上优于 Segment-level 正样本
      • 从头采样提供了更大的采样空间,增加了生成高质量 Session 的可能性
      • 但尽管 Session-level DPO 使用了更高质量的数据,其表现仍不及 SDPO
        • 这表明由于 Segment-level 的更细粒度和对损失函数的理论支持,SDPO 能更高效地利用正样本
  • 论文还分析了 DPO 和 SDPO 对正负样本概率差异的影响,详细内容见附录 E.2

Ablation Study

  • 段选择方法(Segment Selection)
    • 论文探索了 SDPO 的不同段选择方法,结果如表3 所示
      • 方括号中,负样本段的长度在前,正样本段的长度在后
      • 对于对称段长度,固定长度为 3 和 5 的段优于长度为 1 的段(DPO),证明了多轮对齐的有效性
      • 长度为 5 的段效果略逊于长度为 3 的段,表明更长的段并非总是更好
    • 基于此,论文利用 GPT-4o 动态从每个正样本中识别关键段,取得了最佳结果
      • 对于非对称段长度,[3,1] 和 [5,3] 的模型训练崩溃,无法正常交互
      • 其他非对称段的表现均不及对称段,支持了 3.3 节的理论讨论
    • 此外,随着非对称程度的降低,模型性能提升,这可能是因为未消除的 \(Z\) 对损失的影响减弱
      • 这一发现有助于解释 ETO 的有效性,因其未对正负样本 Session 的长度施加约束
  • 采样对话者(Interlocutor for Sampling)
    • SDPO 的对齐数据分别使用 BC Agent 自身和 GPT-4o 作为对话伙伴收集
    • 论文在每个数据子集上独立训练模型,结果如表4 所示
      • 使用单一数据源训练的模型在自对话和与 GPT-4o 交互中均表现提升,进一步验证了 SDPO 的泛化能力
      • 组合数据集训练的模型优于单一数据集训练的模型,表明引入多样化对话伙伴的数据可以进一步提升 Agent 的社会智能
  • 分布外数据(Out-of-Distribution Data)
    • 基础 BC Agent 从 GPT-4-turbo 生成的专家数据中学习,使用 GPT-4-turbo 生成正样本是否能带来更好的性能?
    • 论文让 GPT-4-turbo 与 BC Agent 交互,并为 SDPO 采样 5 次
      • 生成的正样本在目标和关系评分上均优于自采样样本
    • 然而,如表4 所示,使用该数据训练的模型表现不及自采样方法
      • 这表明分布外正样本的效果不如分布内样本
      • 在训练过程中,分布外正样本的概率显著低于负样本,这种更大的概率差距可能是性能不佳的原因

Related Work

Social Intelligence

  • 社交智能(Social Intelligence)可以定义为 Agent在社会互动中理解、适应和回应他人情感、意图和行为的能力
  • 大多数关于社交智能的研究集中在评估方面,例如
    • SOCIALIQA(2019)强调对社会情境的常识推理
    • SocialIQ(2019)将评估模式从纯文本扩展到视频
    • Shapira 等(2023)使用 Faux Pas Test 评估 LLM
    • SocialBench(2024)则在个体和群体层面评估角色扮演 Agent 的社交性
  • 此外,一些研究(2019; 2024)从心理理论(theory-of-mind)的角度探讨模型的社交智能
  • 随着 LLM 的发展,基于大语言模型的社交 Agent 已经能够在真实社交场景中互动,传统的静态问答式基准(QA-style benchmarks)已不足以评估 Agent 的社交智能
    • SOTOPIA(2024)是目前唯一动态且交互式的社交基准,为当代社交 Agent 提供了模拟测试环境
    • 作者希望这项工作能够通过方法创新,进一步推动提升模型社交智能的研究

Alignment Methods with Refined Granularity

  • Rafailov 等(2023)提出了直接偏好优化(Direct Preference Optimization, DPO),该方法利用离线数据和简化的损失函数对齐大语言模型
  • 基于 DPO,多种细粒度对齐算法被开发出来。例如
    • Token-level DPO(2024)在 Token-level 别整合前向 KL 散度约束,同时提升对齐性和多样性
    • Step-DPO(2024)利用单个推理步骤(reasoning steps)进行偏好优化,而非整体答案级评估
    • SePO(2024)提出了一种 Token-level 奖励函数估计方法,选择性优化回答中的关键 Token
  • 然而,在社交对话或网络导航等多轮交互场景中,单轮对齐(single-turn alignment)是不够的
    • ETO 和 DMPO 将 Session-level 数据(session-level data)引入 DPO,将其扩展到多轮场景
  • 论文进一步提出了 SDPO,通过动态的 Segment-level 优化框架(segment-level optimization framework)实现多轮交互中更细粒度的对齐

Limitations

  • 论文提出的 SDPO 假设正负片段的长度相等 ,并在此假设下实现了 SOTA 性能
    • 具体而言,在从正样本中选出一个片段后,论文从负样本中选取相同长度的片段以消除配分函数 \( Z \)
    • 这种方法存在一定局限性
    • 负样本片段可能包含无关或无错误的轮次(turns),或未能捕捉到所有错误轮次,这表明在从负样本中选择片段时需要更细粒度的控制
    • 目前,作者尚未找到能够有效支持不等长片段对齐的理论框架
    • 作者希望这项工作能够激发进一步研究,鼓励多样化的理论分析以解决多轮对齐中的这一问题
  • 由于 SOTOPIA 是目前唯一可用的交互式社交基准 ,论文的实验仅在该数据集上进行
    • 未来,作者计划引入更多交互式 Agent 任务,以进一步验证 SDPO 的通用性

附录A Modifications to SOTOPIA

  • 在 SOTOPIA 中,每次交互都以单轮(single-turn)格式组织,这不支持多轮对齐(multi-turn alignment)
  • 为了解决这一限制,论文修改了提示组织格式(prompt organization format),如图5 所示
  • 这些修改在调用 LLM 的 API 之前应用,确保其对 SOTOPIA 本身不可见,且不会影响 GPT-4o 的评估
    • 更多细节可在论文的代码仓库中找到

附录B Supplementary Theoretical Analysis

B.1 ETO

  • Song等人(2024)提出了基于探索的轨迹优化(Exploration-Based Trajectory Optimization, ETO),该方法在没有严格证明的情况下将直接偏好优化(Direct Preference Optimization, DPO)扩展到 Session-level 别(session level)。其损失函数如下:
    $$
    L_{ETO} = -\mathbb{E}_{(b,h^{w},h^{l})\sim D} \log \sigma \left[ \sum_{t=0}^{T_{w}-1} \beta \log \frac{\pi_{\theta}(y_{t}^{w}|h_{t}^{w})}{\pi_{ref}(y_{t}^{w}|h_{t}^{w})} - \sum_{t=0}^{T_{l}-1} \beta \log \frac{\pi_{\theta}(y_{t}^{l}|h_{t}^{l})}{\pi_{ref}(y_{t}^{l}|h_{t}^{l})} \right] \tag{9}
    $$
    • \( h^{w} \) 和 \( h^{l} \) 分别表示完整的正向和负向交互历史
    • \( T_{w} \) 和 \( T_{l} \) 表示各自的轮数
  • 当 \( T_{w} = T_{l} \) 时,ETO 的损失函数与 SDPO的损失函数等价

B.2 Discussion on DMPO

  • 应用BT模型时的错误(Mistake when Applying BT Model) :在公式(6)之后,DMPO应用了布拉德利-特里模型(Bradley-Terry model, BT model)得到以下公式:
    $$
    p(\tau^{w} \succ \tau^{l}|h_{0}) = \sigma \left( \sum_{t=0}^{T_{w}-1} \gamma^{t} r(h_{t}^{w}, y_{t}^{w}) - \sum_{t=0}^{T_{l}-1} \gamma^{t} r(h_{t}^{l}, y_{t}^{l}) \right) \tag{10}
    $$
    • \( \tau^{w} \) 和 \( \tau^{l} \) 分别表示“胜”和“负”样本
    • \( T_{w} \) 和 \( T_{l} \) 表示各自的轮数
    • 仔细检查公式(10)可以发现,对 \( (h,y) \) 对的求和应排除 \( \gamma^{t} \),因为它已经被纳入 \( d^{\pi}(h,y) \) 中
  • 长度归一化的限制(Limitation of Length Normalization) :暂时忽略公式(10)中的错误,DMPO启发式地引入了基于轮数的正则化来消除 \( Z \):
    $$
    p(\tau^{w} \succ \tau^{l}|h_{0}) = \sigma \left( \frac{1-\gamma}{1-\gamma^{T_{w} } } \sum_{t=0}^{T_{w}-1} \gamma^{t} r(h_{t}^{w}, y_{t}^{w}) - \frac{1-\gamma}{1-\gamma^{T_{l} } } \sum_{t=0}^{T_{l}-1} \gamma^{t} r(h_{t}^{l}, y_{t}^{l}) \right)
    $$
    • 然而,DMPO 并未讨论为什么可以应用长度归一化或这一操作带来的影响。这种转换缺乏严格的理论依据
  • DMPO 损失函数(DMPO Loss Function) :遵循DMPO的方法,其损失函数如下:
    $$
    L_{DMPO} = -\mathbb{E}_{(b,h^{w},h^{l})\sim D} \log \sigma \left[ \sum_{t=0}^{T_{w}-1} \beta \phi(t,T_{w}) \log \frac{\pi_{\theta}(y_{t}^{w}|h_{t}^{w})}{\pi_{ref}(y_{t}^{w}|h_{t}^{w})} - \sum_{t=0}^{T_{l}-1} \beta \phi(t,T_{l}) \log \frac{\pi_{\theta}(y_{t}^{l}|h_{t}^{l})}{\pi_{ref}(y_{t}^{l}|h_{t}^{l})} \right]
    $$
    • 其中,折扣函数 \( \phi(t,T) = (1-\gamma^{T-t})/(1-\gamma^{T}) \)

附录C Data Construction Details

C.1 Statistics and Analysis of SDPO Data

  • SDPO 数据集包含 1019 对样本
    • GPT-4o 识别的错误轮次分布如表5 所示
    • GPT-4 识别的片段长度分布如表6 所示
    • 截断轮数的分布如 表7 所示
  • 结合表3 和表6,尽管在自动片段长度选择中,长度为 3 的片段占比近 90%,但自动选择方法的性能仍明显优于固定长度为 3 的方法,这凸显了自动选择方法的有效性

C.2 GPT-4o’s Performance in Pipeline

  • 论文从 SDPO 数据中随机选择 40 对样本,由三位作者独立评估 GPT-4o 在错误定位和片段选择中的表现
  • 在社交对话的背景下,正确性和错误的概念本质上是模糊的
  • 为此,论文定义了三个评估类别:正确、模糊和错误
  • 平均评估结果如表8所示。评估者均表示,模糊的主要原因是他们可以确定GPT-4o的选择是合理的,但难以判断是否最优。总体而言,论文得出结论:GPT-4o能够处理错误定位和片段选择任务

C.3 rompts in Data Construction

  • GPT-4o用于错误定位和片段选择的提示分别如图7 和图8 所示

附录D Supplementary Experimental Setup

D.1 Versions of OpenAI LLMs

  • 论文使用的 OpenAI 大语言模型版本如下:GPT-4o-2024-08-06、GPT-4-turbo-2024-04-09、GPT-4o-mini-2024-07-18 和 GPT-3.5-turbo-0125

D.2 Mistral Training Details

  • 与 Llama 的实验设置一致,最大 Token 限制设为 4096,所有训练过程均使用 AdamW 优化器
  • 在 SFT 阶段:
    • 批大小为 32
    • 丢弃率为 0.2
    • 学习率为 \( 3e^{-6} \)
    • 预热比例为 5%
    • 采用余弦衰减调度
  • 在 SDPO 的训练阶段:
    • 批大小为32
    • SDPO 损失中的 \( \beta \) 为 0.1
    • 学习率为 \( 5e^{-7} \)
    • 学习率无预热
    • 采用余弦衰减调度
  • Mistral 的 SDPO 数据构建过程与 Llama 相同

附录E Additional Empirical Results

E.1 SOTOPIA Hard Subset

  • SOTOPIA 将数据集中更具挑战性的部分 Token 为困难子集(Hard subset),详细结果如表9 所示
    • 各种方法在困难子集上的排名与完整数据集上的表现基本一致
    • SDPO 仍然取得了最佳结果,这表明 SDPO 在不同难度的场景中均能提升 Agent 的社交智能(social intelligence)

E.2 多轮对齐的必要性

  • 在 DPO 调整第一轮正向和负向片段的输出概率后,后续轮次中正向片段的概率会增加而负向片段的概率会降低吗?
  • 为了探究这一点,论文绘制了 DPO 和 SDPO 在训练过程中正向与负向片段概率差的变化,如图9 所示(只有SDPO可以直接与DPO比较,因此未提及ETO和DMPO)
  • DPO-turn 轨迹几乎与 DPO 轨迹平行,表明 DPO 对后续轮次的概率差几乎没有影响
  • 相比之下,SDPO 轨迹上升更陡峭。这些结果证明了显式修改整个片段内多轮概率分布的必要性,也为多轮对齐优于 DPO 提供了依据

NLP——技术报告解读-Step-3.5-Flash

注:本文包含 AI 辅助创作

  • 参考链接:
    • 原始论文:Step 3.5 Flash: Open Frontier-Level Intelligence with 11B Active Parameters, 20260211 & 20260223, StepFun Team

Paper Summary

  • 整体总结:
    • Step 3.5 Flash 是 MoE(196B-A11B),纯文本 的针对 Agentic 优化过的模型
    • 最大优点是计算效率高(也是名字中 Flash 的来源),亲测速度确实还不错
    • 交错使用 3:1 的 Sliding Window Attention(SWA)/Full Attention 和 Multi-Token Prediction(MTP-3)进行加速
    • 提出 MIS-PO 算法
      • 虽然使用了一种新的方式 MIS(Metropolis Independence Sampling)去描述 ,但本文 MIS(Metropolis Independence Sampling)的思路跟一些博客和文章中提到的 Masked Importance Sampling(MIS) 其实类似,并不是很创新
    • 不同领域专家构建 + Self-Distillation 融合不同领域专家能力
    • 在 Terminal-Bench 2.0 上达到 \(51.0%\),几乎与 GPT-5.2 xHigh 和 Gemini 3.0 Pro 等相当
    • 注:本文中,作者经过评测认为 XML 的工具模板比 JSON 更好(去年还有争论,目前似乎慢慢成为共识)
  • 架构情况简单介绍
  • 注:暂时重点对 Post-training 部分进行解读,后续有时间再补充其他部分

Post-Training

  • 用于大规模 RL 的统一后训练方案
    • 从一个统一 SFT 模型开始
    • 结合可验证的奖励信号和人类偏好反馈,实现了持续的自改进,在 MoE 模型的大规模 Off-policy 训练期间也能保持稳定性
    • 两阶段方案(类似 DeepSeek-V3.2):
      • 第一步(构建专家模型):在 SFT 的基础上,训练数学、代码、STEM、工具使用、长上下文理解、人类偏好和 Agentic Reasoning 等领域的特定领域 RL
      • 第二步(专家能力融合):使用 Self-Distillation 和可扩展 RL 将这些专门的专家蒸馏到一个通才模型中
        • 通过在目标专业化和广泛综合之间系统地交替,实现了强大的泛化能力,而不会牺牲专家级的性能

Expert Model Construction and Self-Distillation

  • SFT 阶段:采用 两阶段 SFT 流程 来构建用于后续 RL 的 Base
    • 第一阶段执行大规模的多领域 SFT,涵盖数学、代码、STEM、逻辑、通用问答、Code Agent、工具使用、Search Agent 和长上下文理解
      • 应用难度感知过滤和策略平衡来培养广泛的智能体行为
    • 第二阶段通过注入 OOD 信号 来明确最大化推理密度,这些信号包括约 3 万条专家级化学轨迹和合成算术任务
      • 这种对独特推理模式的有针对性暴露,仅在三个 Epoch 内就解锁了潜在能力,使模型具备了初始化后续特定领域 RL 阶段所需的复杂结构复杂性
  • 特定领域 RL 阶段:针对特定领域分别进行 RL
  • 专家能力合并:将不同的专家能力整合到一个统一的 Student 模型中,该模型从 Mid-train 检查点初始化 (注意:不是从 SFT 后的 ckpt 初始化)
    • SFT 数据构造:
      • 使用专家模型,在上面特定领域的 SFT 阶段使用的相同 Prompt 数据,重新 Rollout 得到 SFT 样本
        • 给直接 RL 集成提供了一种更稳定、更高效的替代方案
    • 在构造数据时,采用拒绝采样来消除不良模式,如语言混杂或过度思考,从而将专家知识集中到单个 Student 模型中
    • 通过建立这个高质量的 Base 模型,自蒸馏显著减轻了后续 RL 阶段的优化负担
Hyper-Parameters
  • 采用 Muon 优化器,进行 3% 的 warmup,并采用余弦衰减,学习率从 \(1.0 \times 10^{-5}\) 衰减到 \(5.0 \times 10^{-6}\)
  • 冻结 MoE 路由器的权重,并像 Mid-training 一样禁用 EP 组平衡损失
  • SFT 训练以 0.1 的 MTP 损失权重、32 的 Global batch size 和 128k 的 Global sequence length 进行
  • 关于 ROPE,作者保持 \(\theta_{SWA} = 10,000\),并调整 \(\theta_{Full} = 5,000,000\) 以适应 128k 的上下文长度 (2023)

Scalable RL

  • LLM RL 的目标是优化策略 \(\pi_{\theta}\) 以最大化轨迹 \(\tau = (s_0, a_0, \ldots , s_T)\) 上的终端奖励
    • 其中 \(a_t\) 表示在状态 \(s_t\) 生成的 Token
  • 对于推理任务,由于极高的时间跨度和模型规模进一步放大了由高梯度方差引起的严重不稳定性(图 5 (2))
  • 这种方差主要源于高吞吐量推理引擎和训练框架之间的基础设施差异,以及迭代更新固有的 Off-policy 偏差
  • 在这种设置下,Importance Sampling 本质上是非稳定的,因为微小的 Token-level 概率偏移会累积成噪声梯度,阻碍收敛
MIS-Filtered Policy Optimization, MIS-PO
  • 注意:这里的 MIS 名字来源不是之前其他文章中的 Masked IS
  • 本文提出了 MIS-PO,一种受 Metropolis 独立性采样 (Metropolis Independence Sampling, MIS) (1953; 1970) 启发的方法
    • 注:Metropolis Independence Sampling 是一种 MCMC 采样方法,详情见附录
    • 将推理策略视为 Proposal distribution,训练策略视为目标分布,并将更新限制在那些与目标分布保持足够接近的样本上
    • 与通过有界比率缩放梯度且通常遭受高方差影响的重要性采样不同,MIS-PO 应用二元掩码来过滤 Off-distribution 的样本,并将保留的轨迹视为有效的 On-policy ,从而显著降低梯度方差并实现稳定的优化
  • 定义一个二元指示函数并将其应用于两个不同的粒度级别
    $$\mathbb{I}(x) = \mathbb{1}[\rho_{\min}\leq x\leq \rho_{\max}]$$
    • 在 Token-level ,该函数过滤概率比率
      $$x_{t} = \frac{\pi_{\theta_{\text{old} } }(a_{t}|s_{t})}{\pi_{\theta_{\text{vllm} } }(a_{t}|s_{t})}$$
      • 以抑制训练策略和推理策略之间的局部不匹配 (2025)
    • 在 Trajectory-level ,将相同的指示函数应用于几何平均比率
      $$\bar{\rho} (\tau) = (\prod_{t}x_{t})^{\frac{1}{T} }$$
      • 有效地丢弃那些已显著偏离目标分布的整个轨迹,这个思想类似 GSPO
    • 重新制定的 Actor 损失用这些双级别离散掩码替代了连续的重要性权重:
      $$\mathcal{L}_{actor} = -\mathbb{E}_{\tau \sim \pi_{\theta_{\text{vllm} } } }\left[\mathbb{I}(x_t)\cdot \mathbb{I}(\bar{\rho} (\tau))\cdot \log \pi_\theta (a_t|s_t)\cdot \hat{A}_t\right]. \tag{2}$$
      • 理解:
        • 上述重要性权重有两级过滤(理论上稳定性是最高的)
        • 可以看到,该目标函数将有效样本视为 On-policy (重要性采样的输出是一个二元的值,有梯度回传的 Token 也没有重要性采样比例修正)
          • 论文中提到这在信任区域约束下显著降低了长时程推理任务的梯度方差
        • 问题:对于 off-policy 的场景,即使已经做过 MIS 过滤了,是否也应该继续保留重要性权重以恢复采样差异呢?(至少在数学上保证准确)
      • 图 5 展示了一个大约 5,000 个训练步骤的消融研究,其中 MIS-PO 在 Actor 梯度范数上表现出比 PPO 显著更低的噪声,表明了其改进的可扩展性
      • 更多消融研究见附录 D.2.3
  • 为进一步稳定训练动态,采用了多种技术:
    • 截断感知的价值引导 (Truncation-Aware Value Bootstrapping) (2026) :纠正由上下文长度截断引入的乐观奖励偏差
    • 路由置信度 (Routing Confidence) 监控:预测特定于 MoE 架构的不稳定性
Truncation-Aware Value Bootstrapping
  • 为截断的上下文轨迹分配零奖励会将截断与任务失败混为一谈
    • 这种模糊性通过未能区分不完整和错误的结果来惩罚长链推理
  • 为了解决这个问题,本文的做法是区分两者
    • 将零奖励替换为对最终状态的价值引导估计 (bootstrapped value estimate)
    • 将截断视为视野中断而不是终端失败
    • 轨迹 \(\tau_{i}\) 的修改后奖励定义为:
      $$\hat{R}_{i} = \left\{ \begin{array}{ll}V_{\phi}(s_{T}) & \text{if the response is truncated,}\\ R_{i} & \text{otherwise.} \end{array} \right. \tag{3}$$
      • 理解:可以看到
        • 发生截断时,其奖励估计是截断状态的估计值,即 \(V_{\phi}(s_{T})\)
        • 发生失败时,其分数正常表示为 \(R_i\),可能为 0 或 -1 等
  • 作者的实践经验表明
    • 这种截断感知的价值引导在截断率高达 20% 时也能稳定训练,防止了通常由不完整轨迹 (2025; 2025) 引发的奖励退化
  • 消融研究证实,该技术对 Competition-level 基准测试特别有益,因为长时程推理使截断效应最为普遍
Routing Confidence as a Stability Proxy
  • 一些之前的研究将 RL 稳定性与 MoE 路由一致性联系起来
  • 在此基础上,作者提出将路由置信度 \((\Sigma_{k})\) 作为稳定性的代理
    • 即激活专家的平均概率质量
      • 理解:被激活专家的平均概率(每个专家都有一个概率)
    • 较低的 \(\Sigma_{k}\) 意味着较高的路由不确定性,这会放大训练-推理不匹配
      • 理解:较低的 \(\Sigma_{k}\) 意味着被激活的专家并不是概率非常大的,不确定性大(类似熵较高)
  • 通过初步实验,确定了一个明显的稳定性相变:
    • 路由置信度低的模型是脆弱的,需要极端的稳定化措施
      • 极端稳定化措施如:路由器重放 (Router Replay) (2025) 和 严格的 On-policy 更新 等
    • 路由置信度高的模型保持鲁棒性,能够在没有复杂干预的情况下进行 Off-policy 训练
RL Training Dynamics
  • 本文在图 6 中展示了 Step 3.5 Flash 的 RLVR 训练动态和下游评估改进
  • 训练奖励的稳步上升表明了一个稳定且有效的学习过程
  • Step 3.5 Flash 在不同的评估基准上实现了一致的性能提升
    • IMO-AnswerBench (2025) 上显著提升了 \(+3.2%\)
    • CF-Div2-Stepfun-cpp(附录 E.2.1:作者定制的 CodeForces Div.2 基准)上提升了 \(+6.1%\)
    • ARC-AGI-1 (2019) 上提升了 \(+10.6%\)
    • \(\text{HLE}_{\text{text} }\) (2025) 上提升了 \(+3.4%\)
Reward System
  • 将 RL 框架解耦为 with Verifiable Rewards RL (RLVR) 和 with Non-verifiable Rewards RL(如 RLHF)
    • 每个部分都由一个根据其监督特性量身定制的独特奖励支持
Verifiable Rewards
  • 对于 RLVR,每个 Prompt 都与一个特定于任务的验证器配对,该验证器输出一个奖励
    • 基于规则的检查器用于逻辑、指令遵循和代码任务
    • 基于模型的验证器则用于 STEM 任务
  • 在作者内部模型上进行的 450 步 RL 训练消融研究中
    • 对 STEM 任务使用基于模型的验证器比直接使用普通的数学验证器平均高出 \(2.0%\)
  • 更多细节见附录 D.2.2
Non-Verifiable Reward
  • 使用 Pairwise GRM (2025) 来处理不可验证的任务,该模型根据固定参考来评估响应
    • 理解:这里使用的是 Pairwise 的 GRM,应该是输入一个 Response 和 一个 Reference Response,然后融 GRM 评估 Response 的胜率是多少
  • GenRM 是一个推理模型,输出一个置信度分数 ,指示一个 Response 获胜的可能性
    • 该分数随后被转换为 Bradley-Terry 胜率 (1952),作为奖励信号
  • Length Control 在 GenRM 中作为置信度分数惩罚进行建模 ,并传播到胜率奖励中,从而有效地抑制 RL 训练期间过度的长度增长
    • 理解:这里应该是 Prompt GRM 评估 Response 胜率时也考虑 Length Control
  • 通过对捏造的引用、过度自信的主张或语言不一致的 Response 分配零奖励来进一步确保鲁棒性
    • 问题:这里是通过 GRM 直接判断的吗?
Agent Reward(待讨论)
  • 搜索任务使用基于实体匹配分数的 LLM 进行评估
  • 对于报告生成,基于 Rubric 的 LLM judge 评估研究查询、Rubric 规范和候选报告,产生三元判断(满意、部分满意、不满意)(2025)
  • 由于中间类别经常与专家偏好不一致,本文将输出映射到非对称的二元奖励,从而产生更清晰的学习信号,并更快地收敛到符合专家行为的行为
    • 问题:如何理解这里的 非对称的二元奖励
GenRM Training and MetaRM
  • GenRM 初始化:使用 RM-Specific Prompts 微调本文的 SFT 模型来初始化
  • GenRM RL 训练:使用精心挑选的 Pairwise 偏好数据,并采用类似于标量奖励模型公式的 logsigmoid 损失
  • For 提高 GenRM 的鲁棒性
    • 集成 MetaRM(一个额外的验证器)来惩罚表现出虚假推理 (即, 从有缺陷的逻辑中得出正确的偏好 )的 Response
    • 当检测到此类存在问题的模式时,MetaRM 会降低奖励(避免模型陷入中间过程错误/结果正确的 Reward Hacking 模式)
  • 在作者的内部模型上进行的 200 步 RL 训练消融研究中,MetaRM-augmented GenRM 在每个基准测试上都比普通 GenRM 高出 \(0.5% - 3%\)
    • 注意:每个基准上都高
Hyper-Parameters
  • 对于 Rollout
    • 采样温度和 top-\(p\) 都设置为 1.0
    • 最大序列长度为 128k 个 Token
    • 每次生成
      • 对推理任务:采样 256 个唯一的 Prompt,每个 Prompt 生成 16 个 Response
      • 对人类偏好任务:采样 512 个唯一的 Prompt,每个 Prompt 生成 8 个 Response
      • 对工具使用任务:采样 128 个唯一的 Prompt,每个 Prompt 生成 8 个 Response
  • Rollout 后,完成的样本被划分成 mini-batch,并用于训练一个 Epoch
    • 其中 Actor 使用 4 个 mini-batch,Critic 使用 12 个 mini-batch
    • 优化使用 Muon 优化器进行,权重衰减为 0.1
  • Actor 的学习率为 \(2\times 10^{-6}\), Warmup 步数为 20
  • Critic 的学习率为 \(5\times 10^{-6}\),Warmup 步数为 50
  • 遵循 ORZ (2025),将 \(\gamma\) 和 \(\lambda\) 都设置为 1
  • 在最后阶段进一步采用了无偏的 KL 损失 (2025),系数为 0.001
  • 对于公式 (2),Token-level 和 Trajectory-level 的掩码边界分别设置为 [0.5, 2] 和 [0.996, 1.001]
    • 理解:可以证明 Trajectory-level 下 几何平均的 Mask 权重 方差非常小(类似 GSPO 一样,需要设置非常小的过滤边界才能生效),其重要性采样系数几乎在 1 附近,而 Token-level 的权重则波动较大

Data Synthesis & Curation

  • 整体说明:融合开源数据、合成数据和用户轨迹,构建了一个多样且难度均衡的 Prompt 池
    • 使用统一的合成和策展流程,结合严格的全局过滤和特定领域的优化,以最大化推理密度
    • 使用基于规则的启发式方法和基于模型的保真度检查相结合来确保数据质量
  • 生成的数据集包含 871K 个样本(7.23B Token),详细的统计数据总结在表 3 中
General and Reasoning
  • 本文的训练语料库聚合了来自不同开源社区的 Prompt、专家 Response 和合成数据
    • 包括数学 (2025; 注:这里的开源数据集非常多)、编码 (2023; 2025; 2025) 以及科学与开放式问答 (2023; 2025; 2025; 2024)
  • 为了最大化推理密度,本文采用了一个统一的流程,将严格的全局过滤与特定领域的优化相结合,通过基于规则的启发式方法和基于模型的保真度检查相结合来强制保证质量
    • 对数学,通过专家引导的拒绝采样和合成的大数算术来确保数值稳定性
    • 对编程,通过选择严谨的算法挑战来优先考虑离线可执行性,同时严格清除与 RAG 相关的幻觉
      • 问题:如何理解这里与 RAG 相关的幻觉?
    • 特别地, 本文减少了模型错误地声称可以访问外部搜索引擎或假装检索在线解决方案的倾向
    • 此外,本文将科学数据限制在具有唯一、可确定答案的明确问题上
  • 为了能够泛化到实际场景,本文还扩展了开源检查器,并使用一些现实世界的约束来增强样本
  • 同时,作者从开源、合成和用户轨迹中收集通用 Prompt,形成一个多样且难度均衡的池
    • 这个过程产生了一个包含数百万样本、达到十亿 Token-level 的高保真数据集
Generalized Tool Learning
  • 本文提出了一个执行驱动的数据生成框架,用于在智能体中学习可靠的工具使用行为,解决了现有合成流程中的关键限制,如数据不一致、缺乏可验证性和模型幻觉
  • 作者的方法不依赖于随机探索 (2025; 2025) 或基于模型的模拟 (2025; 2025),而是将工具使用行为分解为原子意图 (atomic intents),并使用有限状态机 (finite state machine, FSM) 对它们进行建模
    • 明确地将抽象的工具调用逻辑与参数化的执行约束分离开来
  • 数据通过一个 “采样-执行-验证” 循环与拒绝采样生成,所有候选轨迹都在真实环境中执行 ,并通过确定性反馈进行验证 ,从而确保保真度并消除幻觉行为
  • 通过组合方式组合原子意图,该框架支持复杂、可控的工具使用场景的可扩展生成
  • 使用此范式,本文构建了超过 10 万条高质量轨迹 ,总计数十亿个 Token,为基于工具的计划、推理和执行提供了精确的监督
Code Agents
  • Code Agent 可以通过可验证环境构建和解决方案生成之间的闭环干预来自我改进,其中可执行的反馈不断优化这两种能力
    • 本文作者将环境构建视为与错误修复和功能实现同等重要的第一类能力 (first-class capability),并在可验证的奖励信号下对其进行合成
  • 为此,本文作者开发了一个专门的智能体流程,该流程从 SWE-factory (2026) 框架演变而来
    • 结合了一个跨任务记忆池,用于检索历史构建成功案例作为 Few-shot 示例,以及一个循环检测机制,以防止冗余探索
    • 该流程实现了 40% 的环境构建成功率,通过来自构建轨迹(包括 Shell 命令和错误恢复)的密集监督,形成了一个模型自我进化的正反馈循环
  • 为了进一步提高信号质量,本文通过抽象和屏蔽那些对最终解决没有贡献的瞬态故障和冗余执行模式来规范化环境构建轨迹
    • 得到的环境充当动态测试平台,利用执行反馈和单元测试生成高质量的合成数据,用于持续对齐的奖励信号
  • 经验中观察到一种双向转移:
    • 构建专业知识加速了编码性能,而在这些环境中编码进一步提高了构建准确性,如 DockSmith (2026) 所示
    • 利用这个进化流程,作者精心挑选了 5 万个经过验证的环境,涵盖了超过 1.5 万个 GitHub 仓库和 20 多种编程语言
    • 这个多样化的集合捕捉了广泛的现实世界场景,为训练通才 Code Agent 提供了坚实的基础
  • 此外,作者还整合了几个著名的开源环境,包括 SWE-smith (2025)、SWE-Gym (2024)、R2E-Gym (2025)、SWE-rebench (2025) 和 SETA (2026)
Search and Research Agents
  • 为了促进高级信息搜索,本文的流程集成了基于图和多文档合成 的方法来强制实现多跳推理
    • 通过在知识图谱(例如,Wikidata5m (2021))上执行拓扑扩展并模拟跨网站浏览轨迹,生成了反映现实世界研究复杂性的数据
  • 为了保证外部检索的必要性,针对 DeepSeek-R1 (2025) 验证生成的查询,系统地排除 了这个强大的推理模型无需工具交互即可解决的实例
  • 生成的轨迹通过结构化的报告生成流程 (2025) 进行精炼
    • 该流程强制执行严格的指令遵循和结构完整性
    • 具体方法:
      • 强制执行对预设研究计划的严格遵守,丢弃任何偏离该结构的轨迹
      • 随后有效的输出通过基于模型的评判器和启发式规则进行迭代清洗,以解决诸如非正式写作、时间幻觉和混合语言等细微问题
  • 这种端到端的方法在 RESEARCHUBRICS (2025) 基准测试上实现了业界领先的性能

Agent Infrastructure

Reasoning with Tool-Use Template Design
  • 为了有效地将推理和智能体能力整合到一个基础模型中,确定思考过程和工具使用的适当模板至关重要
  • 关于推理模板,作者评估了三种管理策略
    • 每轮丢弃推理历史的方法 (2025) 虽然激励了独立生成,但在长时程任务(例如,超过 100 轮的编码会话)中会导致任务失败
    • 保留完整的推理历史会带来高昂的上下文消耗,这会迅速耗尽模型的容量并阻止后续的工具调用
    • 作者采用了一种选择性保留策略:仅为最近用户指令触发的工具使用轨迹保留推理痕迹
  • 这种设计实现了推理连贯性和上下文效率之间的最佳权衡,这一做法与最新的前沿模型 (2025; 2025) 一致
    • 关于工具使用模板,本文比较了流行的 JSON 和 XML 格式
      • JSON 的严格语法,包括转义序列和分隔符,经常导致小型、训练不足的模型出现解析错误
      • XML 格式允许平坦的字符串输出,语法开销显著更低
      • 因此,本文选择 XML 格式以确保在复杂、真实的智能体编码场景中的鲁棒性
Scalable Code Agent Infrastructure
  • 本文的集成架构侧重于可扩展的会话管理和跨框架泛化,以促进高吞吐量的智能体编码
    • 其核心是一个专有的 Session-Router,它通过 Kubernetes 编排容器生命周期,并通过 Tmux 确保交互一致性
  • 该架构支持数千个并发环境,具有无缝的状态持久性,无需手动配置特定于 Scaffold 的 Docker 配置
  • 为了确保跨不同智能体工作流的高度泛化,本文训练模型适应广泛的交互框架,从学术标准(例如,OpenHands (2024)、SWE-agent (2024) 和 Terminus-2 (2026))到企业级协议(例如,KiloCode (2026)、RooCode (2026) 和 ClaudeCode (2026))
  • 通过在训练期间让模型接触这些多样化的交互范式,有效地防止了它过拟合到特定的流程模式,确保无论底层执行环境如何,它都能保持鲁棒性

附录:Metropolis Independence Sampling (MIS) 介绍

  • Metropolis Independence Sampling (MIS) 是一种马尔可夫链蒙特卡罗 (Markov Chain Monte Carlo, MCMC) 方法
  • Metropolis Independence Sampling 是一种经典的 MCMC 方法,其核心在于使用独立于当前状态的提议分布进行采样
  • Step 3.5 Flash 论文中的创新之处在于,将 MIS 的思想从概率采样领域迁移到强化学习的策略优化中 ,用二元过滤替代了传统的重要性采样权重,从而在保持有效学习信号的同时,极大地降低了梯度方差,为大规模 MoE 模型的稳定 RL 训练提供了新的有效范式
    • 思路跟一些博客和文章中提到的 Masked IS 其实类似,并不是很创新

Metropolis Independence Sampling 方法的核心思想

  • Metropolis Independence Sampling 的核心目标是从一个复杂的目标分布 \( \pi(x) \) 中采样,当直接采样困难时,通过构建一个马尔可夫链来间接生成服从该分布的样本
  • Metropolis Independence Sampling 的基本框架是:
    • 1)提议分布 (Proposal Distribution) \( q(x) \):一个易于采样的分布,用于生成候选样本
    • 2)接受-拒绝机制 (Acceptance-Rejection Mechanism) :根据 Metropolis-Hastings 准则决定是否接受候选样本
  • 注:独立性采样 意味着提议分布 \( q(x) \) 不依赖于当前状态 \( x^{(t)} \),即 \( q(x’ | x^{(t)}) = q(x’) \)
    • 这与随机游走 Metropolis (Random Walk Metropolis) 形成对比,随机游走的提议分布依赖于当前位置

Metropolis-Hastings 接受概率

  • 对于 MIS,接受概率简化为:
    $$
    \alpha(x^{(t)}, x’) = \min\left(1, \frac{\pi(x’) / q(x’)}{\pi(x^{(t)}) / q(x^{(t)})}\right)
    $$
    • \( \pi(x) \) 是目标分布(未归一化的概率密度)
    • \( q(x) \) 是提议分布

论文中 MIS-PO 的创新应用

  • 在 Step 3.5 Flash 的 RL 框架中,作者将 MIS 的思想创造性地应用于策略优化,提出了 MIS-Filtered Policy Optimization (MIS-PO)
问题背景
  • 在 RL 训练中,由于推理引擎和训练框架的分离,以及迭代更新的特性,会产生训练-推理策略不一致的问题
  • 这导致传统的重要性采样 (Importance Sampling) 方法出现高方差和不稳定性,尤其是在 MoE 模型的长程推理任务中
MIS-PO 的核心创新
  • 论文将 MIS 的思想进行了以下转化(MCMC 概念 -> MIS-PO 中的对应):
    • 目标分布 \( \pi(x) \) -> 训练策略 \( \pi_{\theta} \)
    • 提议分布 \( q(x) \) -> 推理策略 \( \pi_{\theta_{\text{vllm} } } \)(用于生成 Rollout 数据)
    • 接受概率 \( \alpha \) -> 二元过滤函数 \( \mathbb{I}(x) \)
双重过滤机制
  • MIS-PO 引入了两个层级的过滤(同时过滤):
    • Token-level Filtering :
      $$
      x_t = \frac{\pi_{\theta_{\text{old} } }(a_t|s_t)}{\pi_{\theta_{\text{vllm} } }(a_t|s_t)}
      $$
      • 通过阈值 \([\rho_{\min}, \rho_{\max}]\) 过滤单个令牌的概率比,抑制局部的分布不匹配
    • Trajectory-level Filtering :
      $$
      \bar{\rho}(\tau) = \left(\prod_{t=0}^{T-1} x_t\right)^{\frac{1}{T} }
      $$
      • 计算几何平均概率比,丢弃整个偏离目标分布过远的轨迹(类似 GSPO)
  • 最终的 Actor 损失函数
    $$
    \mathcal{L}_{\text{actor} } = -\mathbb{E}_{\tau \sim \pi_{\theta_{\text{vllm} } } }\left[\mathbb{I}(x_t)\cdot \mathbb{I}(\bar{\rho}(\tau))\cdot \log \pi_\theta (a_t|s_t)\cdot \hat{A}_t\right]
    $$
    • 其中 \( \mathbb{I}(x) = \mathbb{1}[\rho_{\min} \leq x \leq \rho_{\max}] \) 是二元指示函数

MIS-PO 的优势

  • 论文通过实验验证了 MIS-PO 相对于传统方法(如 PPO 和 GSPO)的显著优势:
    • 1)更高的样本效率 :收敛速度更快,能够达到更高的奖励平台
    • 2)更强的稳定性 :有效抑制了策略梯度范数的剧烈波动,消除了训练过程中的大幅尖峰
    • 3)更好的探索-利用平衡 :熵值衰减更慢,保持了更持久的探索能力
    • 4)对 MoE 架构更友好 :有效控制了训练-推理的分布漂移,解决了 MoE 模型在离策略 RL 训练中的关键稳定性问题
1…789…64
Joe Zhou

Joe Zhou

Stay Hungry. Stay Foolish.

638 posts
53 tags
GitHub E-Mail
© 2026 Joe Zhou
Powered by Hexo
|
Theme — NexT.Gemini v5.1.4