机器学习之四-正则化

一、概述

在前面的线性回归和逻辑回归都,都用到非线性的拟合,看似特征多项式的阶次越高(即特征值数量越多),拟合程度越好,但是,拟合程度越好的就真的好吗。

1.1过度拟合

下面看一个线性回归的例子
上图中的第一个图是不成功的拟合,第三个图就叫做是过度拟合,这样看来,如果把过度拟合的用来判断的话,会存在很大的误差。这样,过度拟合就是如果我们有太多的特征值,在训练的时候能达到很高的拟合度,但是用来预测的时候效果却不好。
避免过度拟合的办法有两种:
1.减少特征量的数量
2.正则化(regularization)

二、正则化(regularization)

由上面那个例子看到,怎么避免过度拟合呢?我们只有把θ3和θ4设置城足够的小的值,就近似于忽略掉了 x^3和 x^4项
那么怎么实行正则化呢:

可以理解为在使得 θi最小的情况下的最好的拟合。
那么在梯度下降中,θj的迭代表达式为:

相当于对于每个θj 进行了缩小比例


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值