斯坦福大学-李菲菲,深度学习10-13课时听课笔记

神经网络训练细节part1 

第十课时:

   (前3行是第9课时的内容)

   最少使用3个神经元可以完成2类点的分类

   神经网络越多越好,但要加入适当正则化,防止过拟合

  L-BFGS是神经网络小的时候的一种优化算法(mini-batch)

  Mini-batch SGD 过程

   1.从训练集中抽样出一小部分数据

   2.将数据运入卷积神经网络中计算损失值

   3.通过反向传播确定梯度

   4.最后通过梯度值来微调权值得数值

  1960年,感知机的出现

  Sigmoid的函数值要么是1要么是0,这些神经元会导致在反向传播算法中出现梯度趋于0的问题,

   这就是梯度消失问题,并且Sigmoid函数不是关于原点对称的,w可能出现全正或者全负,如果

   训练数据不是关于原点对称的,那么收敛的速度会很慢,计算时间比较高

  tanh函数,(-1,1),关于原点对称,但是梯度仍然可能饱和,所以依然没有解决梯度消失问题

  ReLU,效果很好,收敛快,不会饱和,称之为ReLU神经网络或者修正线性单元(Rectified linear unit)

   缺点是也不是关于原点对称的,在输入小于0,会发生梯度消散的问题,正向传播的过程中,输入为正

   就传播梯度,输入为负杀掉梯度.会出现dead RELU。

  Leaky ReLU f(x)=max(0.01x,x),不会出现神经元失活的情况。

  ELU,指数线性单元

  Maxout函数,max(w_{1}^{T}x+b1,w_{2}^{T}x+b2)

  TLDR均值中心化处理,数据是32乘以32乘以3的CIFAR图像,最后会得到32*32*3的均值图像

   减去单通道的均值也是一种输入图像处理的方式

   权重初始化,初始化的权值w选择不当会造成梯度消散,"Xavierinitialization"用于Tanh有比较好的结果

   对RELU函数使用Xavire,需要考虑均值会变成一半的问题,下面不给出Xavire在这两个情况下的不同的表达式

  (1)tanh:W=np.random.randn(fan_in,fan_out)/nq.sqrt(fan_in);

  (2)ReLU:W=np.random.randn(fan_in,fan_out).nq.sqrt(fan_in/2);

第十一课时:

  Batch Normalization:批量标准化,解决的问题是梯度消失和梯度爆炸

   BN层的学习:http://blog.csdn.net/fate_fjh/article/details/53375881

   BN函数的本质是个恒等函数,但是在开始的阶段是不等的,通过训练和学习之后就会相等

   BN算法增强了整个神经网络的梯度流,它支持更高的学习速率,所以你可以更快的训练模型,这个降低了对初始化的依耐性

   超参数优化:https://zhuanlan.zhihu.com/p/27905191

   随机取样,网格搜索(基本不会用),适当的时候使用对数空间

 

神经网络训练细节part2

第十二课时:

   BP神经网络的基础学习:http://blog.csdn.net/acdreamers/article/details/44657439

   补救SGD垂直进展快的方法,使用动量更新,他可以理解为一个球滚动着接近中间,在这个情况下的梯度可以视作一种动力,物理学中的这种力量,就相当于加速度,而mu倍的v相当于摩擦力。

 

动量更新

 

这个v是可以等于0的

Nesterov动量更新

       我没怎么懂。。看这个博客吧http://blog.csdn.net/luo123n/article/details/48239963

AdaGrad更新

由凸优化理论发展而来的,然后被移植到了神经网络中,他的实现和一些基本的随机梯度下降的形式是一样的,我们用附加变量来放缩梯度,我们在不停地增加这一附加变量。这里的cache在这里由梯度的平方和构成,他一定是正数。变量cache是一个联合矢量,他和你的主向量是一样大的,因此cache在每一个维度计算其相应的梯度的平方和,我们有时称他为第二moment,我们将这些cache构造起来,然后逐项用这一函数除以cache的平方,这就是人们称他为每个参数自适应学习速率的方法的原因。因为参数空间的每一维,都有自己的学习速率,他会根据梯度的规模大小而动态的变化。le-7是一个平滑因子,一个超参数,防止除数变为0

问题:我们长时间训练,不断有正数加到分母的cache变量中,更新步长就会逐渐衰减到0,最后完全停止学习

改进:其主要思想是不再是在每一维度计算平方和而是变成一个泄漏的变量,最后我们利用衰减率这个超参数

Adam更新

一个动量m表示的是梯度的一阶矩,把他用指数和展开的形式表示。adagrad记录的是梯度的二阶矩,并按指数和形式表示,然后就得到Adam的更新了。可以从另一个角度来理解他,通过小批量抽样处理,在前向传播中你会得到很多随机值,你会得到这些带有噪声的梯度。所以相比于在每一步都用各自梯度值运算,我们实际上是利用前面几个梯度的衰减和,这样能稳定梯度方向,这就是动量的作用。放缩的作用是确保梯度大和梯度小的方向步长相关。

本课总结了对于不同超参数更新方法和学习速率衰减公式的讨论

第十三课时:

   集成模型

   随机失活,在你进行神经网络前向传播的时候,你要随机的把一些神经元置零。计算每个隐藏层的激活函数,然后随机挑选出一半神经元失活。在反向传播中也要进行随机失活   可以防止过拟合,因为如果我们只用网络的一半的话,他的表达能力就小了很多,我们每次只用一半网络的话,我们就能相对减少在训练中涉及到的变量数(从而减少过拟合的概率)

另一种解释是随机失活可以被视为训练一个由很多小模型集成而成的大模型。每一个子网络都是原来大网络的一个子网络,但是原网络和子网络之间并不能很好的分享参数。我们在前向传播的时候,随机失活一些,在反向传播过程中,我们也要经过这些掩模。在这时,只有那些在前向传播过程中,我们用到的没有失活的神经元的参数或者说经过这些神经元的梯度才会被更新。所以,在随机失活这个过程中,其实只是训练了一个在某一次取样中,选择的原网络的一部分。换句话说,每一个二进制掩模(随机失活后的网络)都是一个新模型,他只会被一个数据训练一次。

当你失活一个神经元的时候,他的权值也就不更新了,如果我们取样了网络的一部分,我们只会用一个数据点来训练这个子网络(因为每次循环中都有新的子网络)。每次我们都会用网络不同的部分来训练,但是他们之间都会有相同的参数(两次取样没有失活的部分),也就是说在多次循环中我们会用相同的数据点来训练不同的有共同参数的模型,这就是随机失活大概的意思。

如果想要更强的正则化,则可以失活更多的神经元。   

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值