吴恩达机器学习_55过拟合问题/56代价函数

目前所学的学习算法:线性回归逻辑回归

一、过度拟合

例子:线性拟合(房价)

(1)、:欠拟合,具有高偏差

 

 (2)、:拟合的很好

 

(3)、:过拟合,具有高方差 (通常是变量太多,拟合出来的图像看起来很符合数据集,而且代价函数接近0,但是它无法泛化到新的数据集中)

 

  二、解决过度拟合

 (1)、减少变量的数量 

(2)、正则化

  保留所有的特征变量,但是减少量级或参数θ的大小

 

三、正则化

思路:

以上图为例,给代价函数加上惩罚项

代价函数变为

 

 惩罚项前的系数为1000,为了使代价函数最小,θ_3和θ_4要接近0,这就使得假设函数后两项几乎为零(相当于还是一个二次函数),从而在不减少变量的同时达到更好的拟合效果,这就是正则化的思路。  

 

三、正则化代价函数

很多时候,我们不知道哪些变量是相关度比较低的,也就无法准确的缩小它们的值,因此我们考虑给代价函数添加额外的正则化项来缩小所有的参数,

通常θ_0这项不需要进行正则化,这是约定俗成的

 

 如果正则化参数太大,那么对参数的惩罚程度太大,使得参数都接近为0

 

 

 

  

 

转载于:https://www.cnblogs.com/vzyk/p/11580599.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值