深度学习之参数初始化方法以及常用的参数优化器

参数初始化方法

全0初始化---不采用

每个权重被初始化成了相同的值,那么权重失去了不对称性

随机初始化

高斯随机化、均匀随机化

稀疏初始化

使用较少,全部初始化为0再随机挑选一些参数附上随机值

Xavier

适用于激活函数是sigmod或 tanh等S型曲线函数

Kaiming

激活函数是ReLU的专用初始值

参数优化器

SGD

随机梯度下降法,梯度的方向并没有指向最小值的方向时,寻找路线是‘之’字型效率低

Momentum

动量,参照小球在碗中滚动的物理规则进行移动 

AdaGrad

学习率衰减方法,为参数的每个元素适当地调整学习率 

Adam

结合MomentumAdaGrad,实际使用中Adam可作为默认优化器,往往能达到比较好的效果

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值