deep Tutorials

以下收录暂时看不懂得,等翻阅了文献再来补充。

http://deeplearning.stanford.edu/wiki/index.php/反向传导算法

1、[注:通常权重衰减的计算并不使用偏置项 \textstyle b^{(l)}_i,比如我们在 \textstyle J(W, b) 的定义中就没有使用。一般来说,将偏置项包含在权重衰减项中只会对最终的神经网络产生很小的影响。如果你在斯坦福选修过CS229(机器学习)课程,或者 在YouTube上看过课程视频,你会发现这个权重衰减实际上是课上提到的贝叶斯规则化方法的变种。在贝叶斯规则化方法中,我们将高斯先验概率引入到参数 中计算MAP(极大后验)估计(而不是极大似然估计)。]

2、我们的目标是针对参数 \textstyle W\textstyle b 来求其函数 \textstyle J(W,b) 的最小值。为了求解神经网络,我们需要将每一个参数 \textstyle W^{(l)}_{ij}\textstyle b^{(l)}_i 初始化为一个很小的、接近零的随机值(比如说,使用正态分布 \textstyle {Normal}(0,\epsilon^2) 生成的随机值,其中 \textstyle \epsilon 设置为 \textstyle 0.01 ),之后对目标函数使用诸如批量梯度下降法的最优化算法。因为 \textstyle J(W, b) 是一个非凸函数,梯度下降法很可能会收敛到局部最优解;但是在实际应用中,梯度下降法通常能得到令人满意的结果。最后,需要再次强调的是,要将参数进行随机初始化,而不是全部置为 \textstyle 0。如果所有参数都用相同的值作为初始值,那么所有隐藏层单元最终会得到与输入值有关的、相同的函数(也就是说,对于所有 \textstyle i\textstyle W^{(1)}_{ij}都会取相同的值,那么对于任何输入 \textstyle x 都会有:\textstyle a^{(2)}_1 = a^{(2)}_2 = a^{(2)}_3 = \ldots )。随机初始化的目的是使对称失效

 

http://deeplearning.stanford.edu/wiki/index.php/梯度检验与高级优化

1、迄今为止,我们的讨论都集中在使用梯度下降法来最小化 \textstyle J(\theta)。如果你已经实现了一个计算 \textstyle J(\theta)\textstyle \nabla_\theta J(\theta) 的函数,那么其实还有更精妙的算法来最小化 \textstyle J(\theta)。举例来说,可以想象这样一个算法:它使用梯度下降,并能够自动调整学习速率 \textstyle \alpha,以得到合适的步长值,最终使 \textstyle \theta 能够快速收敛到一个局部最优解。还有更妙的算法:比如可以寻找一个Hessian矩阵的近似,得到最佳步长值,使用该步长值能够更快地收敛到局部最优(和 牛顿法类似)。此类算法的详细讨论已超出了这份讲义的范围,但是L-BFGS算法我们以后会有论述(另一个例子是共轭梯度算法)。你将在编程练习里使用这 些算法中的一个。使用这些高级优化算法时,你需要提供关键的函数:即对于任一个 \textstyle \theta,需要你计算出 \textstyle J(\theta)\textstyle \nabla_\theta J(\theta)。之后,这些优化算法会自动调整学习速率/步长值 \textstyle \alpha 的大小(并计算Hessian近似矩阵等等)来自动寻找 \textstyle J(\theta) 最小化时\textstyle \theta 的值。诸如L-BFGS和共轭梯度算法通常比梯度下降法快很多。

转载于:https://www.cnblogs.com/zhangm215/p/5539896.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值