吴恩达机器学习笔记之正则化

过拟合(The Problem of overfitoverfitting):

如果拟合的直线对数据拟合效果不好,则我们称之为“欠拟合”(underfitting),或者有高的偏差(high bias)。

过拟合——我们也称之为有很高的方差(high variance)。过拟合的原因是因为:有过多的特征,假设函数可能对于训练集数据拟合的很好,但是对于新的需要预测的数据却表现很失败。

解决过拟合(addressing overfitting):

1.丢弃一些不能帮助我们正确预测的特征。可以是手工选择保留哪些特征,或者使用一些模型选择的算法来帮忙(例如PCA)

2、正则化。保留所有特征,但是减少参数的大小。

代价函数(Cost Function):

为了减小过拟合,我们可以在代价函数后面加上一项,可以称之为惩罚项,叫做正则项,形式如下图所示。对所有参数进行最小化,当我们让所有参数尽可能小的时候,就可以使得我们的假设函数变得更加平滑,减少过拟合。(注意这里我们是没有加上

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值