深度学习笔记001

      

目录

一、批量规范化

二、残差网络ResNet

三、稠密连接网络(DenseNet)

四、循环神经网络

五、信息论

六、梯度截断


本篇blog仅仅是本人在学习《动手学深度学习 Pytorch版》一书中做的一些笔记,感兴趣的读者可以去官网http://zh.gluon.ai/

        这里主要是记录个人对一些概念的理解,仅此而已。存在错误欢迎指出。

一、批量规范化

        主要是用来加速深层网络的收敛速度。因为在从输入到训练的过程中,模型的参数变化是难以预测的,这种变化在深层网络中被非正式的假设会阻碍网络的收敛,所以在每一次迭代中,我们对其进行标准化,即使用这种标准化进行补偿在训练过程中变量分布的偏移和拉伸。

BN(x)=\gamma \odot \frac{x-\mu _{B}}{\sigma _{B}}+\beta

        B为小批量样本(批量的大小设置比没有使用批量规范化更加重要),其中的\mu _{B}\sigma _{B}是小样本的样本均值和样本标准差。其中的\gamma ,\beta 是拉伸参数和偏移参数,需要和模型一同训练。

        

        使用:在全连接层中,批量规范化一般是加在仿射变换和激活函数之间;在卷积层中,一般是加在卷积层后和非线性激活函数之间,注意输入的大小是相同的。

net = nn.Sequential(
    nn.Conv2d(1,6,kernel_size=5),nn.BatchNorm2d(6),nn.Sigmoid(),
    nn.AvgPool2d(kernel_size=2,stride=2),nn.Flatten(),
    nn.Linear(36,10),nn.BatchNorm1d(10),nn.Sigmoid(),
    nn.Linear(10,2)
    )

注意这里的BatchNorm2dBatchNorm1d。2d是针对卷积层的规范化,1d是针对全连接层的规范化。

加上规范化层的训练
未加规范化层的训练

二、残差网络ResNet

        在神经网络架构F上很难找到真正的函数f,因此想要修改通过改进F的网络架构以此来优化。但是如果F的架构并非是嵌套的,则会导致高阶F会远离目标函数。

只有当F之间是相互嵌套的才能满足。残差网络就是来解决这个问题的。

        残差网络涉及到了几个问题。对于理想的映射 f(x),在输入x后将x引入一个正反馈到输出的激活函数前,这样该网络只需要学习 f(x)-x这个残差映射就行。

        残差网络能够用来简化深层网络训练问题,是因为它通过引入残差学习框架,将网络层重新表述为相对于层输入的残差函数,而不是学习无参考的函数。这样也使得网络更加容易优化,应该它学习的不是整个映射。

        同时,残差网络也更好的解决了深层网络梯度消失的问题。在深度网络中,梯度消失是一个常见的问题,特别是在训练深层网络时。残差学习通过跳跃连接(skip connections)的方式,使得梯度能够更快地传播到浅层,从而减少了梯度消失问题的影响。

三、稠密连接网络(DenseNet)

        稠密连接网络是ResNet网络的扩展,是将每一层的信息直接传给后面的所有层。和残差网络不同的是,残差网络使用的是直接相加的方式,而稠密网络使用的是连接的方式。

        稠密连接的优势在于:

  1. 信息流更加充分:稠密连接网络中的每一层都直接连接到后面所有的层,使得信息能够从网络的前部流动到后部,避免了信息在深层网络中逐渐丢失的问题。这种密集的连接结构使得网络更加容易捕获和传递输入数据的信息,有助于提高模型的表示能力。

  2. 梯度更加稳定:由于每一层都直接连接到后面所有的层,稠密连接网络中的梯度可以更容易地通过网络反向传播。这有助于缓解梯度消失或梯度爆炸的问题,使得模型更容易训练。

  3. 参数共享:稠密连接网络中的每一层都可以访问前面所有层的特征图,因此可以在每一层中共享参数。这样可以大大减少模型的参数量,降低了过拟合的风险,并提高了模型的效率。

  4. 网络更深:稠密连接网络中的稠密连接结构使得网络更容易训练,因此可以构建更深的网络。更深的网络通常具有更强的表示能力,可以学习到更复杂和抽象的特征表示,从而提高模型的性能。

其使用情景在于:

小数据集的时候,通过参数重用和参数共享来降低过拟合的风险。

四、循环神经网络

        对于时间步 t-(n-1) 之前的数据,如果要尽可能的将其影响合并到x_{_{t}} 上,就需要增大 n 的数值,也就是拉长时间线。但是也因此模型的参数将会指数级的增长。为了解决这个问题,就使用了隐变量模型

                                        P(x_{t}|x_{t-1},x_{t-2}...x_{1}) = P(x_{t}|h_{t-1})

其中 h_{t-1} 是隐状态,也称之为隐藏变量。它存储了到时间步 t-1 的数据信息。一般来说,可以使用当前输入状态和上一个隐藏变量来计算当前时间步 t 处的隐藏变量。

h_{t} = f(x_{t},h_{t-1})

H_{t} = \phi (X_{t}W_{xh} + H_{t-1}W_{hh} + b_{h})                                      式1

需要注意的是,隐藏变量和隐藏层是不一样的。隐藏层指的是从输入到输出路径上的隐藏的层,而隐藏变量则是“在给定步骤所做的任何操作的输入”,并且这些状态只能通过之前时间步的数据来计算。

        由公式可知,这样就沟通了 t 时间步和 t-1 时间步对应隐藏变量之间的联系,就好像网络有记忆性。由由于隐藏转态的使用和前一个时间步中使用的定义是相同的,因此式1是循环计算的,故称之为循环循环神经网络。在网络执行中,使用式1进行计算的层也称为循环层。

输出层的定义类似于多层感知机中的计算

O_{t} = H_{t}W_{hq} + b_{q}

循环神经网络的参数有隐藏层的权重和偏置以及输出层的权重和偏移。这些变量在不同的时间步上是共用的,所以模型的参数不会随着时间的增加而增加。

        评价语言模型的指标称为“困惑度”。使用n个词元的交叉熵的平局值来衡量,其指数表达为:

e^{-\frac{1}{n}\sum _{t=1}^{n}logP(x_{t}|x_{t-1},...,x_{1})}

        其中的P由语言模型给出x_{t}是在时间步 t 从该序列中实际观测到的词元。

五、信息论

        这里只介绍几个信息论中的结论:

        ①信息是用来消除随机不定性的东西

       ②所有信息量的期望称为“熵”

       ③信息量的大小与信息发生的概率成反比

        ④交叉熵:用来衡量两个概率分布之间的差异。

交叉熵的值越小,表示真实分布与预测分布之间的差异越小,即模型的预测越准确。

        可以把交叉熵通俗的理解为:主观概率为Q的观察者在看到根据概率P生成的数据时的预期惊诧。

六、梯度截断

        在循环神经网络中,对于长度为T的序列,过大回导致反向传播产生不稳定的数值。有时候梯度很大导致优化算法无法收敛。为了缓解这些问题,可以对梯度进行截断(clipping)。梯度截断的思想是在计算梯度后,将梯度的范数(即梯度向量的长度)限制在一个给定的阈值范围内,从而避免梯度过大或过小的情况。

        具体来说,在RNN中,梯度通常是通过反向传播算法计算得到的。在反向传播过程中,可以通过计算梯度的范数,并将其与预先设定的阈值进行比较,如果梯度的范数超过了阈值,则将梯度进行缩放,使其范数等于阈值。这样做可以确保梯度的范数不会超过给定的阈值,从而避免梯度爆炸的问题。

梯度收缩公公式为:\frac{threadhold}{\left \| g \right \|}*g

        比较流行的方法是,将梯度投影到半径为 r 的球上,将半径 r 作为阈值来截断梯度。

g \leftarrow min(1,\frac{r}{\left \| g \right \|})g

  • 19
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值