神经网络与深度学习——第7章 网络优化与正则化

本文讨论的内容参考自《神经网络与深度学习》https://nndl.github.io/ 第7章 网络优化与正则化

网络优化与正则化

在这里插入图片描述

网络优化

在这里插入图片描述
在这里插入图片描述

网络结构多样性

在这里插入图片描述

高维变量的非凸优化

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

神经网络优化的改善方法

在这里插入图片描述

优化算法

在这里插入图片描述

小批量梯度下降

在这里插入图片描述
在这里插入图片描述

批量大小选择

在这里插入图片描述
在这里插入图片描述

学习率调整

在这里插入图片描述

学习率衰减

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

学习率预热

在这里插入图片描述
在这里插入图片描述

周期性学习率调整

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

AdaGrad算法

在这里插入图片描述
在这里插入图片描述

RMSprop算法

在这里插入图片描述

AdaDelta算法

在这里插入图片描述
在这里插入图片描述

梯度估计修正

在这里插入图片描述

动量法

在这里插入图片描述在这里插入图片描述

Nesterov加速梯度

在这里插入图片描述

Adam算法

在这里插入图片描述
在这里插入图片描述

梯度截断

在这里插入图片描述
在这里插入图片描述

优化算法小结

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

参数初始化

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

基于固定方差的参数初始化

在这里插入图片描述
在这里插入图片描述

基于方差缩放的参数初始化

在这里插入图片描述

Xavier初始化

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

He初始化

在这里插入图片描述

正交初始化

在这里插入图片描述
在这里插入图片描述

数据预处理

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

逐层归一化

在这里插入图片描述
在这里插入图片描述

批量归一化

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

层归一化

在这里插入图片描述
在这里插入图片描述

权重归一化

在这里插入图片描述

局部相应归一化

在这里插入图片描述

超参数优化

在这里插入图片描述

网格搜索

在这里插入图片描述

随机搜索

在这里插入图片描述

贝叶斯优化

在这里插入图片描述
在这里插入图片描述

动态资源分配

在这里插入图片描述
在这里插入图片描述

神经架构搜索

在这里插入图片描述

网络正则化

在这里插入图片描述
在这里插入图片描述

l 1 l_1 l1 l 2 l_2 l2正则化

在这里插入图片描述
在这里插入图片描述

权重衰减

在这里插入图片描述

提前停止

在这里插入图片描述

丢弃法

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

循环神经网络上的丢弃法

在这里插入图片描述
在这里插入图片描述

数据增强

在这里插入图片描述

标签平滑

在这里插入图片描述
在这里插入图片描述

总结和深入阅读

在这里插入图片描述
在这里插入图片描述

习题

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
代入可知,KaTeX parse error: Undefined control sequence: \K at position 15: \frac{\alpha}{\̲K̲}可以看作是真正的学习率,如果不成正比,那么会出现过大或者过小的情况,使参数更新不稳定或者过慢。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
可以看出,如果 β 1 \beta_1 β1 β 2 \beta_2 β2都接近1, M ^ t \hat M_t M^t接近 M t M_t Mt G ^ t \hat G_t G^t接近 G t G_t Gt,当 M 0 = 0 , G 0 = 0 M_0=0, G_0=0 M0=0,G0=0,初期的均值和未减去均值的方差都很大,因为 t t t较小时,由于从0开始增长的很慢,所以基本都趋于0,所以和真实值差距很大,因此需要进行修正, β 1 t \beta^t_1 β1t t t t变大的时候越来越趋于0,这样就会使初期的 M t M_t Mt G t G_t Gt更新较大,后期更新较小。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
AdaDelta算法的 G t G_t Gt计算和RMSprop算法一样,是参数更新差值不同:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
其实就是为了让激活函数 f ( ⋅ ) f(\cdot) f()的净输入适合激活函数,如果在仿射变换之前进行归一化,那经过了仿射变换以后分布还是变了,可能不适合激活函数的定义域。当用Logistic函数时,如果归一化到[0,1],仿射变换可能让数值大于1,那么梯度就消失了,如果用ReLU函数, x > 0 x > 0 x>0时都是它本身,那么在仿射变换之后可能小于0了,梯度也消失了。
在这里插入图片描述
在这里插入图片描述
γ \gamma γ β \beta β表示缩放和平移的参数向量,通过这两个参数,可以调整输入分布,防止ReLU死亡问题,然后有了 β \beta β的存在,仿射变换就不需要偏置参数。
在这里插入图片描述
RNN的梯度随时间反向计算,有一个累积的过程,如果重复进行归一化,会导致梯度爆炸。而且批量归一化是使用小批量的均值和方差来近似整个序列的均值和方差,RNN的序列长度不同,批量均值和方差可能无法反映整个序列的统计特性。批量归一化通常假设批量中的样本是独立同分布的,这和RNN的每一层内不同,RNN的每一层是有时间步的关系。
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
很明显,对每个时刻的隐藏状态进行随机丢弃,会损坏网络的时间维度上的记忆能力。
在这里插入图片描述
在这里插入图片描述

  • 89
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值