【LLM系列】Deepseek-R1模型详细介绍

1. 简介

  • deepseek r1是对标openai o1模型的推理模型;
  • 本文主要介绍GRPO作为强化学习框架,使用Deepseek-V3-Base作为基座训练deepseek r1及deepseek r1 zero。deepseek r1 zero模型仅通过Deepseek-V3-Base+RL就能达到在AIME2024 benchmark上效果超过openai-o1-0912,但存在可读性差和语言混合问题。deepseek r1则是Deepseek-V3-Base通过少量数据sft,再将sft后的模型经过RL后得到的模型,不仅解决了上面的问题,效果也远超预期。

2. 方法

2.1 DeepSeek-R1-Zero Model

2.1.1 GRPO(Group Relative Policy Optimization)

  • 在强化学习中,忽略掉critic model
  • 使用group scroes预估baseline
  • 针对query q,GRPO首先会从旧policy π θ o l d \pi_{\theta old} πθold中sample一组回复{ o 1 , o 2 , . . . . , o G {o_1, o_2,...., o_G} o1,o2,....,oG},然后通过下面的objective优化 θ \theta θ
    在这里插入图片描述
  • 其中 ϵ \epsilon ϵ β \beta β表示超参, A i A_i Ai表示advantage,计算公式如下:
    在这里插入图片描述

2.1.2 Reward Modeling

  • 训练使用基于规则的奖励系统,由两部分组成:
    • Accuracy Reward:用来评估resposne是否准确,比如说在数学问题中使用结果与标准答案是否一致作为判断标准;代码问题使用编译器的结果作为判断标准。
    • Format Reward:判断回复是否符合某个格式

2.1.3 训练prompt

在这里插入图片描述

2.1.4 Performance

在这里插入图片描述
在这里插入图片描述

  • 不需要微调就可以通过RL在推理任务中达到很好的效果;
  • 使用majority voting可以进一步提升模型效果;
  • Self-evolution
    • 模型回复长度增加,模型在探索更多深度的思考回答复杂问题;
    • 通过强化学习,模型会有类似refection,reevaluate等行为
      在这里插入图片描述
  • Aha Moment of Deepseek-R1-zero
    在这里插入图片描述
  • 缺点
    • 可读性差
    • 语言混合

2.2 DeepSeek-R1 Model

  • 与DeepSeek-R1-Zero模型不同,DeepSeek-R1模型会事先准备少量的long CoT数据微调模型,然后作为RL的actor。
  • 数据构建方式:1. 直接将一些long CoT数据作为few-shot,然后让模型生成带反思和校正的回复;2. 让DeepSeek-R1-Zero生成long CoT数据
  • DeepSeek R1模型优点:
    • 可读性:通过微调之后,回复的格式可以定义,并且没有混合语言的情况。
    • 潜力:效果要好于DeepSeek R1 Zero模型
  • 在得到actor后,在RL训练过程中,为了避免回复有多语言的情况,增加语言一致性的reward model,主要方式是计算回复中目标语言的占比。在整个RL过程中,使用语言一致性reward + 任务准确性reward作为最后的reward。
  • 在推理任务中收敛后得到中间ckpt,再进行针对所有场景的强化学习:
    • 数据:
      • reasoning数据:上一步模型的训练数据仅仅是能用规则得到reward的数据,这步需要加上一些额外的数据。主要通过中间ckpt 采样生成reasoning data和一些额外数据的回复,然后使用通用reward model判断好坏 + 后处理;最终得到600K数据
      • 非reasoning数据:类似writing, factual QA, self-cognition, and translation等数据,主要是deepseek v3 pipeline以及部分V3 SFT数据,然后用deepseek v3得到CoT部分。最终得到200K数据。
      • 最后得到800K数据
    • 训练:
      • 第一步:使用800K数据微调deepseek v3 base 模型;
      • 第二步:用第一步的模型进行强化学习
        • 在reasoning任务中,参考deepseek r1 zero训练方式
        • 在general任务,参考deepseek v3 pipeline
          在这里插入图片描述

3. 实验

在这里插入图片描述

4. 小结

文章展示cold start和non cold start两种RL训练方式,总体而言,两种方法都有效。但non cold start的方式会有一些问题,比如说语言混合,可读性差。但使用cold start不仅在效果上超过non cold start的方式,在可读性及语言一致性问题上也得到解决

5. 参考文献:

  • 1) https://weibo.com/ttarticle/p/show?id=2309405125956833771966&mark_id=999_reallog_mark_ad%3A999%7CWeiboADNatural
  • 2)https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

一夜了

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值