深度学习中常用的参数初始化方法及caffe中的初始化方法介绍

本文详述深度学习中权重初始化的重要性,对比分析了随机初始化、Xavier初始化和He(Kaiming)初始化,特别关注它们对ReLU的影响。同时,介绍了Caffe框架中对应的初始化方法,如constant、Gaussian、Xavier和MSRA filler,以及它们的适用场景。
摘要由CSDN通过智能技术生成

深度学习中常用的参数初始化方法及caffe中的初始化方法介绍

本文首先介绍了深度学习中常用的权重初始化方法,然后介绍 caffe 中的初始化方法的使用。

1. 深度学习中常用的权重初始化方法

1.1 随机初始化(Gaussian)

顾名思义就是将权重在符合某一分布 (通常是高斯分布) 的情况下进行随机初始化。 操作非常的简单, 但是也有它自身的一些问题。当网络的层数比较深时,输出会快速的趋向于零,从而导致梯度消失的问题。

1.2 Xavier Initiallization

针对上面的问题,并且由于网络的深度不断的加深,所以 Xavier Glorot 等在2010年提出 (Understanding the difficulty of training deep feedforward neural networks) 了 Xavier 初始化方法。用一句话概括就是通过使输入和输出的方差一致,来避免所有输出值都趋向于0,从而缓解梯度消失的问题。

值得注意的是, 在 Xavier 提出的那个年代(2010)大家普遍使用的激活函数还是以sigmoid 和 tanh 代表的非线性函数,我们现在所常用的ReLU在2000年被提出,但是直到2011年才被证明使用ReLU在更深的神经网络中可以取得更好的效果。因此 Xavier 也是针对上面的 tanh 激活函数的。
关于Xavier的推导可以参考

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值