Neural Network L1正则,L2正则优化

假设原先未加入正则优化的Cost(w, b)=C_{0}

现在进行L1正则分析:Cost(w,b)=C_{0}+\frac{\lambda }{n}\sum |w|

对其求偏导数:\frac{\partial Cost}{\partial w}=\frac{\partial C_{_{0}}}{\partial w}+\frac{\lambda }{n}sgn(w)

因此w的更新函数:w:=w-\frac{\lambda \eta }{n}sgn(w)-\eta \frac{\partial C_{0}}{\partial w}

参数b不需要做任何变化。

现在进行L2正则分析:Cost(w,b)=C_{0}+\frac{\lambda }{2n}\sum\left \| w \right \| ^{2}

对其求偏导数:\frac{\partial Cost}{\partial w}=\frac{\partial C_{_{0}}}{\partial w}+\frac{\lambda }{n}w

因此w的更新函数:w:=(1-\frac{\lambda \eta }{n})w-\eta \frac{\partial C_{0}}{\partial w}

参数b不需要做任何变化。

对于\frac{\partial C_{0}}{\partial w}的求解可以参考:

Neural Networks中使用Cross-Entropy Cost Function交叉熵损失函数的理论推导

BackPropagation算法理论详解及公式推导

Neural Network-Softmax function-Cross Entropy Cost function的公式推导过程

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值