深度强化学习(王树森版)学习笔记(一)——机器学习基础

前言 

        由于本人的工作与深度强化学习相关,想找个机会重新复习下深度强化学习的相关知识,正好手上有这本书,粗略一看感觉知识点挺简洁的,内容也挺全面,也提供了一些学习资料。所以开个坑记录一下这本书的学习过程。这本书的相关资料(PPT,源代码)可以在以下链接获取:https://www.ituring.com.cn/book/2982

        首先我们会按照这本书的顺序讲一下机器学习的一些基础理论部分。

1.1 线性模型

         线性模型是一类最简单的监督机器学习模型,常用于简单的机器学习任务。可以将线性模型视为单层的神经网络。

线性回归

        线性模型是指通过一系列输入变量(自变量)的线性组合来预测输出变量(因变量)的值。其中,线性组合指的是将各自变量乘上一个权重,然后加上一个常数截距。这个过程可以用以下公式表示:

f(\textbf{x};\mathbf{w},b)=w_1x_1+w_2x_2+...+w_nx_n+b

        其中,f(\mathbf{x};\mathbf{w},b) 是输出变量,x_1x_n是自变量,b是截距,w_1w_n是各自变量的权重。线性组合也可以写成如下形式: 

f(\mathbf{x};\mathbf{w},b)=\mathbf{x}^T\mathbf{w}+b

        比如在房价问题上,\mathbf{x}就是房屋的特征(x_1为房屋的面积,x_2为房屋的地段等等),f(\mathbf{x};\mathbf{w},b)就是房价,它既依赖于房屋的特征\mathbf{x},也依赖于参数\mathbf{w}b。如果x_1为房屋的面积,那么w_1就是房屋面积对房价贡献的大小,w_1越大,说明房价与房屋面积的相关性越强,这就是为什么\mathbf{w}被称为权重。b与房屋的特征无关,只与线性函数\mathbf{x}^T\mathbf{w}简单相加,因此被称作偏移量。可以把偏移量b视作市面上房价的均值或者中位数,它与待估价房屋的特征无关。

        线性回归就是一种基于线性模型的机器学习算法,旨在寻找最佳拟合直线来预测输出变量的值。具体来说,线性回归通过训练数据集中的样本来确定每个自变量的权重\textbf{w}和截距b,以便在新数据上进行预测:

f(\mathbf{x};\mathbf{\hat{w}},\hat{b})=\mathbf{x}^T\mathbf{\hat{w}}+\hat{b}

最小二乘法

        最小二乘法是一种常见的数学方法,用于拟合数据和求解线性回归模型。其主要思想是通过最小化预测值与真实值之间的平方误差来确定模型中的未知参数。

        具体地说,假设我们有一组数据(x_1,y_1),(x_2,y_2)\cdots (x_n,y_n),并且我们希望找到一个形如 f(\mathbf{x};\mathbf{w},b)=\mathbf{x}^T\mathbf{w}+b的线性模型来描述这些数据。我们可以用最小二乘法来确定参数\textbf{w}b的值,使得所有数据点到直线的距离的平方和最小。

         比如在房价问题上,模型对第i个房屋价格的预测是\hat{y}_i=f(\mathbf{x}_i;\mathbf{w},b),而这个房屋的真实价格是y_i,我们希望y_i\hat{y}_i尽量接近,因此平方差(\hat{y}_i-y_i)^2越小越好,定义损失函数:

L(\mathbf{w},b)=\frac{1}{2n}\sum_{i=1}^{n}[f(\mathbf{x}_i;\mathbf{w},b)-y_i]^2

        最小二乘法希望找到使得损失函数尽量小,也就是让模型的预测尽量准确的\textbf{w}b 。在实践中最常用数值优化算法(比如随机梯度下降法)来迭代更新\textbf{w}b。 

        在模型参数数量较大,而训练数据不够多的情况下,常用正则化缓解过拟合,加上正则项后,上述最小二乘法模型变成:

\min_{\mathbf{w},b} L(\mathbf{w},b)+\lambda R(\mathbf{w})

其中的L(\mathbf{w},b)是损失函数,R(\mathbf{w})是正则项,\lambda是平衡损失函数和正则项的超参数。常用的正则化项有L1正则化项和L2正则化项: 

逻辑斯谛回归

        逻辑斯谛回归(Logistic Regression)是一种用于分类问题的机器学习算法。它通过拟合数据集中的特征和标签之间的关系来预测新数据点的标签。逻辑回归的输出是一个概率值,表示该数据点属于某个类别的概率。

        逻辑回归使用的数学函数是sigmoid函数,将输入的值映射到0和1之间的概率值。sigmoid函数的公式为:

 sigmoid(z)=\frac{1}{1+exp(-z)}

        在讲解算法之前,先讲一下交叉熵(Cross-entropy),它是一种用于衡量两个概率分布之间差异的指标。在机器学习中,交叉熵通常用于衡量模型预测结果与实际结果之间的差异。使用向量

\mathbf{p}=[p_1,\cdots ,p_m]^T       和          \mathbf{q}=[q_1,\cdots ,q_m]^T

表示两个m维的离散概率分布,向量的元素都非负,且其中所有元素之和为1,它们之间的交叉熵定义为

H(\mathbf{p},\mathbf{q})=-\sum_{j=1}^{m}p_j\cdot lnq_j

 熵(entropy)是交叉熵的一种特例:

H(\mathbf{p})=H(\mathbf{p},\mathbf{p})=-\sum_{j=1}^{m}p_j\cdot lnp_j

        与交叉熵作用类似的是KL散度(Kullback-Leibler divergence),也被称为相对熵(relative entropy),也是一种用来衡量两个概率分布之间差异的方法,对于离散分布,KL散度定义为

KL(\mathbf{p},\mathbf{q})=\sum_{j=1}^{m}p_j\cdot ln\frac{p_j}{q_j}

这里约定ln\frac{0}{0}=0,KL散度问题非负的,而且当且仅当\mathbf{p}=\mathbf{q}时KL散度的值为0。这意味着当两个概率分布一致时,它们的KL散度达到最小值0。从KL散度和交叉熵的定义不难看出

KL(\mathbf{p},\mathbf{q})=H(\mathbf{p},\mathbf{q})-H(\mathbf{p})

由于熵H(\mathbf{p})是不依赖于\mathbf{q}的函数,因此一旦固定\textbf{p},KL散度就等于交叉熵加上常数,如果\textbf{p}是固定的,那么关于\mathbf{q}的优化KL散度就等价于优化交叉熵,在实际工作中数据的分布总是固定不变的,而我们需要将模型预测的分布尽量与数据的分布接近,也就是使将KL散度当作最小化优化问题,也就等价于交叉熵最小化优化问题,这就是为什么常将交叉熵作为损失函数。

        根据书中的例子,收集n份血检报告和最终诊断作为训练集:(x_1,y_1),(x_2,y_2)\cdots (x_n,y_n),向量x_i\epsilon \mathbb{R}^d表示每i份血检报告中的所有指标,二元标签y_i=1表示阳性,y_i=0表示阴性。分类器对第i份血检报告的预测是\hat{y}_i=f(\mathbf{x}_i;\mathbf{w},b),而真实情况是y_i,想要用交叉熵衡量预测值和真实值的差别,得把它们表示成向量:

\begin{pmatrix} y_i\\ 1-y_i \end{pmatrix}         和        \begin{pmatrix} \hat{y}_i\\ 1-\hat{y}_i \end{pmatrix}

两个向量的第一个元素都对应阳性的概率,第二个元素都对应阴性的概率。因为训练样本的标签y_i是给定的,所以两个向量越接近,它们的交叉熵越小。定义问题的损失函数为交叉熵的均值:

L(\mathbf{w},b)=\frac{1}{n}\sum_{i=1}^{n}H(\begin{pmatrix} y_i\\ 1-y_i \end{pmatrix},\begin{pmatrix} \hat{y}_i\\ 1-\hat{y}_i \end{pmatrix})

                      =-\frac{1}{n}\sum_{i=1}^{n}[y_i ln\hat{y}_i+(1-y_i)ln(1-\hat{y}_i)]

我们希望找到使得损失函数尽量小,也就是让分类器的预测尽量准确的\textbf{w}b

\min_{\mathbf{w},b} L(\mathbf{w},b)+\lambda R(\mathbf{w})

可以看出该公式与回归问题类似,而这类优化问题称为逻辑斯谛回归。通常也是使用随机梯度下降算法来迭代更新参数。

softmax分类器

        上一节的例子是二分类问题,其中数据只划分为两个类别,阴性和阳性。而本节将介绍一个多分类模型——Softmax分类器,它将输入向量映射到一个概率分布上。在Softmax分类器中,每个类别对应着一个得分,这些得分通过Softmax函数进行归一化,得到每个类别对应的概率值。因此,Softmax分类器可以用来预测一个输入样本属于哪个类别。

        在介绍softmax分类器之前,先介绍softmax激活函数,它的输入和输出都是k维向量,设\mathbf{z}=[z_1,\cdots ,z_k]^T是任意k维实向量,它的元素可正可负,softmax函数定义为:

softmax(\mathbf{z})=\frac{1}{\sum_{l=1}^{k}exp(z_l)}[exp(z_1),\cdots ,exp(z_k)]^T

这个函数的输出是一个k维向量,元素都是非负的,且相加为1。

         线性softmax分类器是“线性函数+softmax激活函数”,其定义为

\mathbf{\pi}=softmax(\mathbf{z}),        其中   \mathbf{z}=\mathbf{W}x+\mathbf{b}

其中\mathbf{W}\epsilon \mathbb{R}^{k*d}\mathbf{b}\epsilon \mathbb{R}^k是分类器的参数,d是输入向量的维度,k是标签的数量。

        书中的例子是有n=60000张的手写数字图片,每张大小为28*28像素,需要把图片变成d=28*28=784维的向量,记作\mathbf{x}_1,\cdots ,\mathbf{x}_n\epsilon \mathbb{R}^d。每张图片有一个标签,它是0到9的整数,共10个,需要对它做one-hot编码,例如0是[1,0,0,0,0,0,0,0,0,0], 1是[0,1,0,0,0,0,0,0,0,0], ... ,9是[0,0,0,0,0,0,0,0,0,1] ,变成k=10维的one-hot向量,记作\mathbf{y}_1,\cdots ,\mathbf{y}_n

        对于第i张图片\mathbf{x}_i,分类器做出预测:

\mathbf{\pi}_i=softmax(\mathbf{W\mathbf{x}_i}+b)

它是k=10维的向量,可以反映分类结果。我们希望它尽量接近真实标签\mathbf{y}_i,定义损失函数为平均交叉熵:

L(\mathbf{W},\mathbf{b})=\frac{1}{n}\sum_{i=1}^{n}H(\mathbf{\mathbf{y}_i,\pi_i})

我们希望找到使得损失函数尽量小,也就是让分类器的预测尽量准确的\mathbf{W}\mathbf{b}

\min_{\mathbf{W},\mathbf{b}} L(\mathbf{W},\mathbf{b})+\lambda R(\mathbf{W})

然后使用随机梯度下降算法来迭代更新参数。

1.2 神经网络

全连接神经网络

        全连接层(Fully Connected Layer)是神经网络中最常用的一种层类型,也称为密集连接层或全连接层。它的作用是将输入层所有的神经元都与输出层的所有神经元相连接,即每个输入神经元都与每个输出神经元都有连接。

        在全连接层中,每个神经元的输出是由所有前一层的神经元加权求和得到的,并通过一个激活函数进行非线性变换。这些权重和偏置值是神经网络训练过程中需要学习的参数。因此,全连接层通常是模型中参数最多的一层。

         我们可以把全连接层当作基本组件,然后像搭积木一样搭建一个全连接神经网络,也叫多层感知机:

卷积神经网络

        卷积神经网络(Convolutional Neural Network,CNN)是一种常见的深度学习神经网络,用于图像分类、物体识别和计算机视觉等任务。本书没有具体解释CNN的原理,也不会用到这些原理。只需要记住:CNN的输入是矩阵或三阶张量,CNN从该张量中提取特征,并输出提取的特征向量。图片通常是矩阵(灰度图)和三阶张量(彩色图片),可以用CNN从中提取特征,然后用一个或多个全连接层做分类或回归

1.3 梯度下降和反向传播 

梯度下降

        线性模型和神经网络的训练都可以描述成一个无约束优化问题:

\min_{\mathbf{w}^{(1)},\cdots \mathbf{w}^{(l)}} L(\mathbf{w}^{(1)},\cdots \mathbf{w}^{(l)})

        对于这类优化问题最常使用的算法是梯度下降法和随机梯度下降法。梯度是一个数学概念,对于一元函数,我们用“导数”这个概念。一元函数的导数是标量,对于多元函数,我们用“梯度”和“偏导”的概念,多元函数的梯度是向量,向量的每个元素是函数关于一个变量的偏导。

        在机器学习中,既然我们的目标是最小化目标函数,就应该沿着梯度的负方向更新参数,也就是梯度下降法,这样做可以逐渐接近函数的局部最小值。对于给定的目标函数,我们首先计算其关于每个参数(\mathbf{w}_{now}^{(1)}, \cdots ,\mathbf{w}_{now}^{(l)})的偏导数,这些偏导数构成了梯度向量。然后,我们将梯度向量与一个称为学习率的正数\alpha相乘,并将结果减去当前参数值,得到新的参数值。

\mathbf{w}_{new}^{(i)}\leftarrow \mathbf{w}_{now}^{(i)}-\alpha \cdot \bigtriangledown _\mathbf{w^{(i)}}L(\mathbf{w}_{now}^{(1)}, \cdots ,\mathbf{w}_{now}^{(l)})

重复这个过程直到达到收敛条件或达到预定义的迭代次数。 这样就可以找到目标函数的局部最小值。

需要注意的是,梯度下降法的基本思想是通过计算所有样本的平均梯度来更新模型参数,它无法保证找到全局最小值,因为有多个局部最小值可能存在。而随机梯度下降法每次仅利用单个样本的梯度信息进行参数更新,因此容易跳出局部最小值。

反向传播

反向传播(backpropagation)是一种训练神经网络的算法。它通过计算损失函数对每个参数的梯度,然后使用梯度下降法来更新参数,从而使神经网络学习到正确的输出。

具体来说,反向传播算法会先通过前向传播计算出神经网络的输出,然后将输出与真实值进行比较,得到损失函数。接着,算法会通过链式法则来计算每个参数对损失函数的梯度,并使用梯度下降法来更新参数。这个过程会一直重复,直到达到预设的停止条件。

本文小结

本书的第一章主要讲了入门深度强化学习的关于机器学习的一些基本概念,简要介绍线性模型、神经网络、梯度下降和反向传播。如果读者有不错的机器学习基础,可以跳过这一章。总体而言这章的内容讲得比较基础,如果有想要更深入的理解可以参考其它书籍。

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

向南而行灬

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值