斯坦福大学机器学习笔记(3)过拟合

本文主要介绍了吴恩达在斯坦福大学的机器学习课程中关于过拟合及其解决方案的内容。过拟合发生时,可以通过特征选择或正则化来解决。特征选择可以手动或通过PCA进行,正则化则通过减小参数的大小来避免模型过于复杂。PCA主要用于线性降维,而正则化通过增加代价函数来约束模型复杂度。文章还探讨了正则化参数的影响,以及在逻辑回归中如何应用正则化。作者鼓励读者理解并实践这些概念。
摘要由CSDN通过智能技术生成

课程官网
吴恩达老师机器学习课程笔记
斯坦福大学的课程视频

欠拟合,好的拟合,过拟合
在这里插入图片描述
在这里插入图片描述

如果我们发现了过拟合问题,应该如何处理?

  1. 丢弃一些不能帮助我们正确预测的特征。可以是手工选择保留哪些特征,或者使用一些模型选择的算法来帮忙(例如PCA)
  2. 正则化。 保留所有的特征,但是减少参数的大小(magnitude)。

PCA能做的事其实很有限,那就是:降维。PCA降维的前提必须保证数据是线性分布的
在这里插入图片描述
上面我们说PCA可以将数据投影到分布分散的平面内,而忽略掉分布集中的平面。

PCA看这个,非常人性化

请添加图片描述
碎碎念:
为什么高阶参数小一点就能改善过拟合? 我知道一阶是直的 二阶是弯的 没有二阶就不会弯。 但是对于高阶不会有参数越小越扭曲的情况吗?
z=x + y + x² + y² + a x³
y=x + x² + a x³
这公式里的a=5时的曲线就比a=1时要平滑 纳闷

请添加图片描述
要减小θ3θ4的值,不能等算好了之后自己减,而是该放在代价函数里一起算。

请添加图片描述
中括号这样的话,就是在原本的代价函数上单纯多加一个1/2m的那俩 。2是因为θ3平方了,m是因为样本数量越多就。。。。emmmmm。。。总之,当机器发现θ3变小能改善代价函数的值,而θ3又确实老老实实存在于公式里,就行了。

如果不知道要惩罚哪个参数,就都惩罚
请添加图片描述
请添加图片描述
如果正则化参数太大,所有的θ都会趋于0,实际函数就会是水平直线。所以这个新增的代价就是让函数斜率变小,变平滑。

好吧,有了新的代价函数,要求导了。
线性回归请添加图片描述
因为θ0是常数项本身,所以没必要惩罚,所以对参数求偏导的时候也不会有θ0的惩罚项,总之 分开计算然后合并公式后就是这样
在这里插入图片描述
正规公式则多了个参数矩阵
请添加图片描述
正则化逻辑回归的代价函数
请添加图片描述
逻辑回归前面的代价不需要平方 用的1/m。但θ是平方所以还是除2m

那么,求导之后。。
请添加图片描述

好消息 你应该已经理解了
坏消息 你应该没动手写代码实现
好消息 你已经又变强了许多
坏消息 可能只能当2018年初的强者

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值