李宏毅机器学习2016 第一讲 回归案例分析

本人于2017年12月5日开始学习机器学习课程,个人对机器学习及深度学习已有一定的了解。学习此次课程的目的是为了加深对机器学习的认识,以期达到进阶以及加深理解的作用,此外也希望通过完成课程作业,能够提升自己的实战项目能力。

视频链接:李宏毅机器学习(2016)_演讲•公开课_科技_bilibili_哔哩哔哩

课程资源:Hung-yi Lee

课程相关PPT已经打包命名好了:链接:https://pan.baidu.com/s/1gfRjrc3 密码:pstr


Regression


本章节主要讲解了回归、梯度下降、如何选择模型、过拟合、正则化,并通过实际案例Pokemon的讲解加深对回归的理解。

1.线性函数


如何选择一个模型能够正确预测出结果呢?本章节主要使用回归的方法。线性函数是形如上式的集合。



2.损失函数


损失函数用来评价一个函数的好坏,通过计算预测出的值与实际值之间的差值进行评价。

3.梯度下降

梯度下降的主要目的是使损失函数最小,寻找到全局最优值。梯度指的是偏导数,也可理解成斜率。当其值为负时就增加w,为正时就减小w,因此


梯度下降第一步,对于函数y=w*x+b

在梯度下降问题中,其结果和初始值的选择大小高度相关。会陷入局部最小值。

但在线性回归中,损失函数是凸函数,是没有局部最小值的。

4.测试数据

模型在新数据上的表现是评价好坏的最重要的指标。

5.过拟合

通过不断的增强模型的复杂度(添加二次项、三次项......)会不断减小损失函数的值,但在测试数据上的表现会因为过拟合的出现导致结果误差反而更大。一个复杂的模型并不总是会在测试数据上表现得更好。

6.重新设计模型

考虑多种因素,构造出更强的模型。选择多种特征。

7.正则化。

加入正则项可以避免过拟合的出现。


为什么正则化?

平滑函数能够在噪声数据出现时,受到更少的影响。不至于过度拟合那些离群点数据。

加入正则项恰恰可以使得函数更平滑。正则项参数λ的值是一个超参数,也是个调参值。

此处,还有一个小问题是正则项的设计要不要考虑偏置b?答案是不需要,因为b和函数的平滑程度无关,只是对函数上下平移了。

8.如果最终在测试数据上得到平均误差值为11.1,那么在另外的新的数据上的表现会怎样?

Overestimate误差会高于11.1。


总结:

1.Pokemon实例生动有趣。

2.梯度下降主要原理及注意事项。

3.过拟合和正则化。

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值