【AI学习】李宏毅新课《DeepSeek-R1 这类大语言模型是如何进行「深度思考」(Reasoning)的?》的部分纪要

针对推理模型,主要讲了四种方法,两种不需要训练模型,两种需要。

在这里插入图片描述

在这里插入图片描述
对于reason和inference,这两个词有不同的含义!

在这里插入图片描述
推理时计算不是新鲜事,AlphaGo就是如此。

在这里插入图片描述
这张图片说明了将训练和推理时计算综合考虑的关系,-1500到-250这些数值表示模型的准确度。

在这里插入图片描述
这张图片有关MCTS用于推理模型的几篇主要论文。

下面是两种需要微调模型的方法。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

但是,实际上,并不需要模型每一步推理都是对的,最后结果对就可以。
在这里插入图片描述

关键是要教会模型知错能改!!那如何教?
在这里插入图片描述
SoS这篇论文的意思,就是把错误的推理过程也加入训练数据,形成带有错误推理步骤的训练数据。

在这里插入图片描述
这篇论文也类似,在推理过程中包含错误的步骤。

在这里插入图片描述
这就是知识蒸馏,如Sky-T1、s1等

在这里插入图片描述
可以看到通过Deepseek-R1蒸馏基础模型后的性能提升。

在这里插入图片描述
最后一种方法,只看结果的RL方法,就是DeepSeek的方法

在这里插入图片描述

在这里插入图片描述
这张图展现了R1推理16次后再通过投票的性能增益,这也说明,深度思考的几种方法,是可以结合的,这里就是把RL和前面的Best of N进行了结合。

在这里插入图片描述
Aha时刻
在这里插入图片描述
但是R1-zero并没有拿出来用,只看重结果,导致输出的推理过程可读性差
在这里插入图片描述
在R1训练中的几个重点:
1、前面的几种方法都有用到,而不是单纯的RL
2、R1-Zero生成推理数据,用于训练下一个模型,但是R1-zero输出的数据可读性差,所以需要大量的人力矫正,而这个过程R1技术报告说得并不清楚
3、另外还需要通过few shot方式的提示和让模型生成带有反思和验证的提示,来由另一个模型产生数据,这个过程的具体情况也不清楚
4、最后模型训练,在准确性的基础上增加了语言一致性的目标,这样会导致性能略微下降,但是增强可读性,所以还是用了这种方式。
在这里插入图片描述
然后这个Model B还是用来生成数据,同时这个数据需要V3作为验证器,评估正确性,以及过滤数据
最后Model C再经过RL获得最终的R1,但是这个RL的过程在技术报告描述的不详细。
在这里插入图片描述
R1推理过程中有一些奇怪的输出,例如缺了括号、语言混乱,说明推理过程并没有人的监督

在这里插入图片描述
这张图是说,小的模型上使用RL的方法行不通
背后的原因可能性:RL只是强化基础模型的能力,就是说,基础模型作对了,奖励,做错了,惩罚,来强化作对的能力,但是前提是基础模型需要有作对的能力!!
在这里插入图片描述
所以,相关论文就发现,V3本身就是有Aha能力,R1只是强化这种能力

在这里插入图片描述

接下来探讨推理模型的问题。
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

bylander

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值