梯度下降综述

原始论文
https://arxiv.org/pdf/1609.04747.pdf

前言

梯度下降算法现在变的越来越流行,但是对于使用者来说,它的优化过程变的越来越黑盒。本文我们介绍下不通梯度下降算法的习性,使得我们能够更好的使用它们。本人每次复习这篇论文,或多或少都有一些收获,基础学习扎实了,后面的使用才会得心应手。

简介

梯度下降算法,不管在机器学习,还是在神经网络中,都是很常见的优化算法。所以不通的深度学习框架实现了各种不通的梯度下降算法,但是各种算法的优势和劣势对于普通的使用者来说是一个黑盒。

本文就是基于此来详细解释各种梯度算法的不同点,以及它们的优势和劣势。

梯度算法简单来说就是:
优化目标函数 J(θ) , 使得目标函数达到最小值时,求解得到参数 θRd

它的方式是首先求解梯度 θJ(θ) , 然后每次往负梯度方向迭代一步,更新参数 θ .

各种梯度下降

目前常用的有3种梯度下降,主要是根据计算梯度时使用的数据量。

batch gradient descent(BGD, 批量梯度下降)

每次计算梯度的时候都是使用全部的数据:
θ=θη.θJ(θ)

这里可以看到每一步的参数 θ 更新都需要计算全部的数据,

所以BGD在数据量特别大的时候是很难处理的,同时也不能做到online更新model。
BGD在凸优化里面能够保证达到全局的最优点,如果在非凸优化里面能够达到局部最优点。

Stochastic gradient descent(SGD, 随机梯度下降)

SGD每次接收到一个训练数据 (xi,yi) 时,都需要计算梯度,
然后更新模型参数,粒度非常小。
θ=θη.θJ(θ;xi;yi)

SGD在大数据应用上效果非常好,一方面它避免像BGD一样冗余的计算,因为每一次计算它都会去更新参数,所以收敛速度会快很多,而且它是实时更新参数,所以可以用作online 训练,但是SGD在训练的时候,loss的波动可能很大。

BGD最终会收敛到最优点,相对来说SGD是有波动的,一方面,它有机会跳出当前的局部最优点;另一方面,它可能会造成过拟合。但是只要保持学习率缓慢下降的情况下,不管在凸优化还是非凸优化上面,SGD和BDG的效果可以等价。

Mini-batch gradient descent(MBGD)

MBGD是 BGD 和SGD的一个折中,它是每一个小批次计算一次梯度,更新一次参数

θ=θη.θJ(θ;x(i:i+n);y(i:i+n))

它的好处
1) 减少参数的更新次数,使得模型更佳稳定。
2)可以使用矩阵计算的形式,来优化计算速度。
常见的Mini-batch 大小一般是 50-256,但是和应用有关,比如图像应用的batch小点,nlp任务的batch可以调整大些。

挑战

虽然MBGD还可以,但是它不是凸优化,有些问题需要处理

  • 合适的学习率很难选择,太小了迭代慢,太大了很容易波动,甚至发散
  • 预设学习率,比如:模拟退火,学习率衰减等,但是这个对数据集需要非常了解
  • 对于每一步迭代,所有的参数更新是共享同一学习率的,但是如果我们数据稀疏,或者特征频次很不同,我们不需要更新每一个参数,对较少出现的特征更新幅度较大。
  • 在神经网络中优化高度非凸的代价函数的一个挑战是,避免局部的次最优。这个难题不是局部最优点带来的,而是碰到非局部极值点的驻点,在某些维度它的梯度是上升的,在某些维度,它的梯度是下降的。这些鞍点的从每个方向出发,它附近的error值都是一样的,这就使得SGD非常难以从这样的地方迭代出来。

梯度下降优化算法

下面我们介绍多种优化梯度的算法,这里不介绍不适合大数据集和二次的算法。

Momentum(动量,惯性)

SGD在做梯度下降的时候,梯度陡的维度下降的幅度比梯度欢的维度更大,这会导致一个问题,在一个局部最优点的附近,更新的方式是有点类似走“之”字行的缓慢前进。如图a所示,垂直方向的梯度很陡,水平的很缓,这样在更新的时候,往垂直方向的更新粒度大,但是水平方向很缓慢。
这里写图片描述

为了解决这个问题,引入Momentum,也就是引入动量来抑制震荡,如图b
vt=γvt1+ηθJ(θ)
θ=θvt
通常 γ 设为0.9
它是通过保持上一步的梯度来实现抑制震荡,效果如b所示。

物理上来说,当我们从山上扔一个球,随着球的下落,动量是一直在增加的,
速度也是越来越快的,直到极限速度, γ 代表阻力因子。同样的场景
适合解释参数的更新,如果梯度的方向相同,动量 vt 是增加的,相反,
动量是降低的,这样就可以起到加速和抑制震荡的效果。

Nesterov accelerated gradient(Nesterov 加速梯度, NAG)

然而,如果一个球任由它自己盲目的沿着斜坡下落,结果是很不理想的,因为球在坡缓地地方下落的慢,在坡陡的地方下落的快,这个和我们迭代参数的理想情况是相反的。我们期望的是在坡陡(梯度大)的地方迭代更慢。

NAG是解决这个问题的一种方式,使用动量对我们的参数本身做一些修正,我们先预估参数应该变成什么样子?

按照惯性前进,我们会有有个参数update 后的预估位置,
它可能是: θγvt1
然后在这个位置我们计算它的梯度, ηθJ(θγvt1)
这样可以起到加速的作用。
整体的公式:

vt=γvt1+ηθJ(θγvt1)

θ=θvt


这里写图片描述
解释下这个图:
原来梯度的方向:
如果按当前的参数位置 θ 来计算梯度,它是小的蓝色的向量
然后保持动量 γvt1 是长的蓝色向量
NAG:
先保持动量走一步: γvt1 为棕色的长向量,和长的蓝色向量平行
在该位置的梯度为红色的长向量: ηθJ(θγvt1)
修正后的位置为左边绿色向量指定的位置。

这种方式就可以提前修正梯度方向,避免单次走的太快以致偏差太大,起到加速的作用
既然我们可以做到自适应的根据梯度大小来调整迭代的大小来加速计算。
我们也应该做到根据参数的重要性来独立的更新每一个参数。

Adagrad

Adagrad是一种梯度下降的算法:它是通过学习率来作用到参数更新,非频繁更新的参数更新力度大些,相反更新力度小点。
所以这个非常实用于sparse数据,
Dean et al 发现Adagrad在训练大数据集的时候可以极大的提升SGD的鲁棒性,
用Adagrad去训练Glove word Embedding 对于新词或者出现频率低的词效果很好

前面我们对所有的参数 θ 共享一个学习率,Adagrad对于每个 θi 都会训练出一个对应的学习率。
下面是计算过程:
首先计算参数 θi 在step t的梯度:
gt,i=θtJ(θt,i)

普通的SGD对于每一个参数,更新公式为:
θt+1,i=θt,iη.gt,i

在这里Adagrad 对学习率 η 进行修正,这要视基于它过去已经计算过的梯度:
θt+1,i=θt,iηGt,ii+ϵ.gt,i

GtRdxd 是一个对角矩阵,只用对角的 i,i 有数据
Gt,ii=0,tg2t,i
所以这个值会一直越来越大
ϵ 是个平滑极小项,避免出现除0的情况,一般设为1e-8.
很奇怪的是,如果不加平方计算,效果很差。

使用Adagrad的一个好处是,不需要很特意的去调整学习率,
只要设置一个初始的 η 比如0.01,然后就可以了,模型自己会调整。

它的确定很明显,需要计算累积的梯度平方和,这个值会越来越大,
这回是的步长一段时间后变得很小,这样再训练下去就没有什么意义了。
下面的方法来fix这个缺陷。

Adadelta

Adadelta是Adagrad的扩展,它主要是决绝Adagrad的过度下降学习率。它们的不同是Adagrad累积所有历史的梯度平方,但是Adadelta只是考虑过去一段是时间的梯度平方和。

为了避免每次计算都需要存储历史 w 个梯度,做了一种变种的方式,
有点类似衰减 decay:

E[g2]t=γE[g2]t1+(1γ)g2t
同样 γ 可以设置为0.9,我们将整体公式列出来:

SGD 更新参数:
Δθt=η.gt,i
θt+1=θt+Δθt

Adagrad更新参数的element-wise 方式:
Δθt=ηGt+ϵgt

Adadelta就是将 Gt 改为 E[g2]t ,得到
Δθt=ηE[g2]t+ϵgt

其实 E[g2]t 就是RMS(root mean squared)

Δθt=ηRMS(g)tgt

这个作者提到,像SGD,Momentum, 或者 Adagrad)的更新单元其实不适合Adadelta,
其实即使梯度再大,只要学习率很小,那么参数更新的幅度就很小,所以学习率的调整应该和参数的过去一段时间的调整幅度有关,而不是只是和梯度有关,所以我们引入另外一个累积公式为:

E[Δθ2]t=γE[Δθ2]t1+(1γ)Δθ2
RMS[Δ]t=E[Δθ2]t+ϵ

这里 RMS[Δ]t 依赖 Δθt 是未知的,我们用 RMS[Δ]t1 近似代替
然后用 RMS[Δθ]t1RMS[g]t 来替代步长 η
物理上可以这么理解:
Δθt=ηgt
η=Δθtgt 然后用 RMS[Δ]t1 近似 Δθt ,用 RMS[g]t g_t$

最终得到:
Δθt=RMS[Δθ]t1RMS[g]tgt
θt+1=θt+Δθt

所以用这种算法,我们连初始值都不需要了。

RMSprop

RMSprop是一种非公布的算法,是Hinton提出的
RMSprop 和 Adadelta是独立提出的相同算法,他们都是用来解决Adagrad累积梯度平方和太快的问题:
E[g2]t=0.9E[g2]t1+0.1g2t
θt+1=θtηE[g2]t+ϵgt

建议 η 设置为 0.001

Adam

Adaptive Moment Estimation 是两外一种自适应学习率算法,类似RMSprop 和 Adadelta,Adam还保存过去一段时间的梯度:

mt=β1mt1+(1β)gt
vt=β2vt1+(1β2)g2t

vt 和上面的RMSprop类似, mt 是额外需要记忆的东西,
他们分别可以看成是第一动量(平均),第二动量(方差),
因为 vt mt 都是由0初始化的,Adam的作者观察:
在0附近特别是开始的几步,偏置非常大,特别是衰减率非常小的时候,
β1β21
为了修正这个偏置,作者稍微对这两个动量进行修正,得到:
m1t=mt1βt1
v1t=vt1βt2
这里的 βt1 β1t
然后利用这个 m1t 去更新参数:
θt+1=θtηv1t+ϵm1t
作者建议: β1=0.9 β2=0.999 , ϵ=108

原始论文:https://arxiv.org/pdf/1412.6980.pdf

这里写图片描述

AdaMax

上面提到的 vt 计算 g2t 的时候用的其实是l2范数计算,可以写成形式:
vt=β2vt1+(1β2)|gt|2
我们可以定义更加广泛的形式:
vt=βp2vt1+(1βp2)|gt|p
这里使用的的是p范数。

这里我们引入一种无穷范数的形式,AdaMax:
ut=β2vt1+(1β2)|gt|
=max(β2.vt1,|gt|)

我们用 ut 来代替Adam的 (v1t+ϵ) ,得到:
θt+1=θtηutm1t

ut 计算的时候取最大值,所有在接近于0的时候不会像Adam一样有这么大的偏置。

Nadam

前面提到,Adam 是RMSprop和动量的结合算法,RMSprop保证学习率会根据最近几步的梯度平方来衰减,这里我们再坐下升级,对动量使用NAG(Nesterov accelerated gradient),
首先我们回顾下动量的更新方式:
Momentum:
gt=θtJ(θt)
mt=γmt1+ηgt
θt+1=θtmt

J 是我们的目标函数,γ是动量的衰减因子, η 是步长,结合起来:
θt+1=θtγmt1ηgt

NAG可以令我们走的更加精确,我们将NAG的特性加入上式得到:
NAG:
gt=θtJ(θtγmt1)
mt=γmt1+ηgt
θt+1=θtmt

NAG可以做些修改,因为NAG中会迭代动量两次,
一次是计算 gt 的时候,一次是更新参数 θ 的时候.修改后也是两次,
只是动量更新两次,一次时上面的第二个式子,预估当前的动量,
然后沿着这个步子,再更新一次的动量,整体的式子为:
gt=θtJ(θt)
mt=γmt1+ηgt
θt+1=θt(γmt+ηgt)

这样其实是起到加速的作用,这个我们也可以作用到Adam上面,
首先回顾下Adam算法:

mt=β1mt1+(1β1)gt
m1t=mt1βt1
θt+1=θtηv1t+ϵm1t
把这些式子合并成一个式子:
θt+1=θtηv1t+ϵ(β1mt11βt1+(1β1)gt1βt1)

我们注意到 mt11βt1 就是 m1t1 ,我们简化为
θt+1=θtηv1t+ϵ(β1m1t1+(1β1)gt1βt1)

这里我们像上面加速一样,将上一步的 m1t1 动量,
直接用现在的预估来代替,起到加速的作用,很简单的替换,得到:
θt+1=θtηv1t+ϵ(β1m1t+(1β1)gt1βt1)

算法可视化


这里写图片描述
a. 这是一个loss 曲面,每种算法的起始点是一样的,每个算法的优化路线是不一样的,可以看到,Adagrad, Adadelta, 和 RMSprop 很快的就开始下降,momentum和 NAG就走了很多的弯路。

b. 展示的是算法如何逃离鞍点的情况,这种鞍点啃可能是,一个维度的梯度是正的,其他维度的梯度是负的。这种情形对于SGD来说是很难逃离的 ,图中就可以看出,SGD,Momentum,NAG都很难突破,Adagrad, RMSprop, 和 Adadelta 很快找到负梯度方向了。

该怎么选择

如果数据分布很稀疏,最好选择自适应学习率的算法
RMSprop,Adadelta,Adam都是很相似的自适应学习率的算法,总体来说Adam效果是最好的。

很有趣的是,最近很多论文都是直接用SGD,没有使用动量和学习率调节,像上面说的那样,SGD可以找到一个最小值,但是它可能很慢,对初始值的要求更高,也可能在鞍点就停止了。

反正如果在更深或者更复杂的网络,最好使用自适应学习率的算法。

并行和分布式SGD

SGD的替代是逐步的,所以原始的SGD是很难做到并行的,下面的算法是关于SGD的并行和分布式化的。

Hogwild!

Hogwild!: A Lock-Free Approach to Parallelizing Stochastic Gradient Descent.它是一种多CPU的并行处理方式,共享一块内存,这些内存是不加锁的,这个适合于数据参数比较稀疏,每个部分只更新内存的一个独立部分,

Downpour SGD

Downpour SGD是一种异步SGD,Google在Large Scale Distributed Deep NetworksDistBelief的时候提出来的,他们把数据分为几个部分,然后一个模型跑多份,然后每个模型将他们的参数发送给 parameter server。这个server可能是多机器的,每个机器复杂存储和更新一部分参数。但是他们每一个模型之间是没有通信和数据交换的,这样会带来鼓励和阻碍达到最优。

延时容忍的SGD

Delay-Tolerant Algorithms for Asynchronous Distributed Online Learning论文中扩展了AdaGrad,使它成为一种可容忍延时和并行的算法,据说不错。

TensorFlow

TensorFlow是google的开源机器学习框架,它的分布式结构,主要是将graph分成子图的模式,然后通过rpc的机制通信,传递参数更新。

SGD的其他优化

训练数据乱序

使得模型不刻意去学习数据输入的顺序,特别是序列模型的时候

batch normalization

对每个min-batch 进行归一化,可以使我们更加自如的控制学习率,使得对初始输入不是很敏感,它还可以其他还可以起到正则化的作用。

Early stop

loss 下降如果基本不动,就早点停止吧

梯度噪音

对梯度加个噪音(比如正态分布的噪音):
gt,i=gt,i+N(0,σ2t)
σ2t=η(1+t)γ

加上这个噪音,会使得网络更加的稳定,还有可能更有机会逃离局部最优。

来关注我的公众号:

这里写图片描述

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值