计算机视觉教程核心版(三)优化下篇优化方法

本节承接优化中篇

在前面的章节中我们已经介绍了最简单的优化方法,随机梯度下降法。如下代码和图示例

左边代码中仅仅需要两行代码就可以实现SGD优化方法。右边的图展示了含有两个参数的损失函数等高线的图,不同颜色代表不同的损失函数,中间红色表示最小梯度。

SGD问题

  1. SGD的问题在一个方向很敏感(下降较快)在其他方向效果次之,在高维方面更加明显。

2.SGD的另一个问题是由局部最小值点或者鞍点(零梯度)

 

对于鞍点梯度为零,则权重不会做出任何更新,高维度出现你更多。

而局部最小值是一个更大的问题,向每一个方向损失都将变大,当考虑高维度时候出现的较少。

由于我们的梯度来源于最小批次(可以想象,小批次的数据训练多了就容易发生过拟合,而过拟合就是因为学习到了许多噪声信息),所以它们含有更多的噪声,导致随机梯度下降法将耗费更多的时间训练。

如下图中,加入噪声的随机梯度下降比较曲折,这将导致孙连耗费更多时间。

 

SGD+Momentum

SGD优化方法和SGD+Momentum的优化方法区别显示如下:

Momentum的思想是,保持一个不随时间变化的速度,我们将梯度估计添加到这个速度上,然后在这个速度的方向上步进,而不是在梯度的方向上步进。在每一步我们采取当前的速度,然后用摩擦tho来对其衰减。摩擦系数有时取值比如0.9,之后加到梯度上。现在我们在速度的方向上前进,而不是原始梯度向量。它基本解决了SGD在刚才提出的各种问题。

即使在鞍点或者最小值点梯度为零或者卡住,我们有速度来使得损失冲破最小值点或者鞍点。示例如图

Nesterov Momentum是原始的一种变形,但更加好用。其公式以及换元后的公式如下

另一种优化方法

RMSprop是AdaGrad的改进,一般不倾向于使用AdaGrad,因为它容易卡住

 

无论是Momentum还是RMSprop都比单纯的SGD效果要好。

Adam集合和上述的优化方法的优点,  针对许多问题都能有好的表现,因此作为优化函数是首选。

其完整形式如下

学习率衰减方式

在训练过程中,随着时间退役经常减小学习率。

减小学习率的方法有如下

  • 每训练一定的epoch就将学习率减少一般
  • 指数衰减

\(\alpha = \alpha_0 e^{-k t}\)

  • 1/t衰减,\(\alpha = \alpha_0 / (1 + k t )\)

带动量的SGD经常用这种办法,然而像Adam这种优化算法就很少用。学习率衰减是一种二姐参数调试办法,不应该在一开始就使用。

梯度检验待续

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
├─1.计算机视觉简介、环境准备(python, ipython) │ computer vsion.pdf │ CS231 introduction.pdf │ ├─2.图像分类问题简介、kNN分类器、线性分类器、模型选择 │ 2. 图像分类简介、kNN与线性分类器、模型选择.mp4 │ 2.初识图像分类.pdf │ ├─3.再谈线性分类器 │ 3.再谈线性分类器.mp4 │ 再谈线性分类器.pdf │ ├─4.反向传播算法和神经网络简介 │ .反向传播算法和神经网络简介.pdf │ 4. 反向传播算法和神经网络简介.mp4 │ ├─5.神经网络训练1 │ 5.-神经网络训练1.pdf │ 5.神经网络训练1.mp4 │ ├─6.神经网络训练2、卷积神经网络简介 │ 6.神经网络训练2.mp4 │ 神经网络训练2.pdf │ ├─7.卷积神经网络 │ 7.卷积神经网络.mp4 │ Lession7.pdf │ ├─8.图像OCR技术的回顾、进展及应用前景 │ 8.图像OCR技术的回顾、进展及应用前景.mp4 │ PhotoOCR_xbai.pdf │ └─9.物体定位检测 物体定位检测.pdf │ ├─10.卷积神经网络可视化 │ .卷积神经网络可视化.pdf │ 10.卷积神经网络可视化.mp4 │ ├─11.循环神经网络及其应用 │ 11.循环神经网络及其应用.mp4 │ 循环神经网络.pdf │ ├─12.卷积神经网络实战 │ 12.卷积神经网络训练实战.mp4 │ 卷积神经网络实战.pdf │ ├─13.常见深度学习框架介绍 │ 常见深度学习框架介绍.pdf │ ├─14.图像切割 │ 14.图像切割.mp4

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值