神经网络的偏差与方差处理

模型偏差与方差实例

测试集验证集模型问题
高误差高误差模型或数据处理错误
底误差高误差方差过大,过拟合
高误差底误差偏差过大,欠拟合

偏差与方差处理

循环
循环
循环
循环
循环
High bias
the training set or the training data performance
try to pick a better network
find a new network architecture
High variance
data or model
done
get more data
regularization*
new network architecture*

正则化 regularization


在成本函数中添加参数
λ / 2 m ∗ ∥ w ∥ 2 2 \lambda/2m*\begin{Vmatrix}w \end{Vmatrix}_2^2 λ/2mw22
以上是常用的L2正则化,除此外,还有L1正则化或者对b参数正则化等。
特别的,L1正则经常会得到稀疏矩阵,但并未因稀疏而降低内存使用。
λ = r e g u l a r i z a t i o n _ p a r a m e t e r \lambda = regularization\_parameter λ=regularization_parameter
对于神经网络中的二维 W 矩阵,我们用弗罗贝尼乌斯范数代替L2范数即正则参数表达为:
λ / 2 m ∗ ∥ w ∥ F 2 \lambda/2m*\begin{Vmatrix}w \end{Vmatrix}_F^2 λ/2mwF2
后令 d w [ L ] = δ J / δ w + λ / m w [ L ] dw^{[L]}=\delta J/\delta w +\lambda/m w^{[L]} dw[L]=δJ/δw+λ/mw[L]
得到新的梯度下降公式:
w [ L ] : = w [ L ] − α d w [ L ] w^{[L]}:=w^{[L]}-\alpha dw^{[L]} w[L]:=w[L]αdw[L]
: = ( 1 − α λ / m ) w [ L ] − α δ J / δ w :=(1-\alpha \lambda/m)w^{[L]} -\alpha \delta J/\delta w :=(1αλ/m)w[L]αδJ/δw

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值