DNN反向传播计算过程

根据初始化参数,正向计算各个神经元输出

1.使用relu作为激活函数,如果输入值是小于等于,偏导将会是0,也就是不会更新梯度;如果输入是大与0,梯度是1

以LR为例,假设使用relu作为激活函数,继续学习。

很明显 如果权重初始化为0 这个神经元将不会得到更新 (更新公式:w1=w1-a*w1梯度)

2.如果激活函数是sigmoid,这样即使初始化权重全部是0,但梯度不会全部是0(sigmoid梯度=sig(1-sig))

 

综上,对深度网络如果某一层初始化权重全部是0,且使用了relu作为激活函数,那这一层将不会得到更新,包括前面的每一次也不会更新(一直使用的是初始值),对于该全0层后面的神经元权重将会在每次迭代中进行更新,但是也没有意义(只是在随机训练后面神经元的初始化参数)

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值