2020-5-20 吴恩达-改善深层NN-w1 深度学习的实用层面(1.5 为什么正则化可以减少过拟合?(L2正则化举例))

本文探讨了正则化如何有助于防止过拟合,以L2正则化为例。通过增大正则化参数λ,权重矩阵趋向于接近0,简化网络,使其行为更像线性回归,从而降低方差。激活函数tanh的线性特性在正则化后更加突出,整个深层网络接近线性,避免了复杂非线性决策边界导致的过拟合问题。
摘要由CSDN通过智能技术生成

1.视频网站:mooc慕课https://mooc.study.163.com/university/deeplearning_ai#/c
2.详细笔记网站(中文):http://www.ai-start.com/dl2017/
3.github课件+作业+答案:https://github.com/stormstone/deeplearning.ai

1.5 为什么正则化可以减少过拟合?Why regularization reduces overfitting

本节将介绍为什么正则化有利于预防过拟合和减少方差问题。

以上一节介绍过的L2正则化为例。

在这里插入图片描述

观察上图,在前面已经介绍过,左边是偏差大欠拟合;右边是方差大过拟合;中间是合适的分类器,偏差和方差都不大。

假设有一个过拟合的NN,如下图(这张图不够大,深度也不够,只是做个例子解释原理而已)
在这里插入图片描述

这个NN的成本函数上节课已经介绍过
J ( W [ l ] , b [ l ] ) = 1 m ∑ i = 1 m L ( y ^ [ i ] , y [ i ] ) + λ 2 m ∑ l = 1 L ∣ ∣ W [ l ] ∣ ∣ F 2 J(W^{[l]},b^{[l]})=\frac 1m\sum_{i=1}^mL(\hat y^{[i]},y^{[i]})+\frac \lambda{2m}\sum_{l=1}^L||W^{[l]}||^2_F J(W[l],</

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值