机器学习初探(day2)

以下所有学习内容源于李宏毅老师的《机器学习》一课,

链接李宏毅《机器学习》_哔哩哔哩_bilibili

做事我们总是喜欢做从简单的做起,就想我们拿笔画线会从直线画起一样。

那机器学习就从 回归 开始吧:

第一、线性假设:假设模型是线性模型

即                 ​​​​​​​        f(x) = w^Tx + b ,

x即影响结果的有限个属性,我们为便于计算一般用矩阵\left ( x1,x2,...,xn \right )^T来表示;

w即weight代表每个属性对应的权重值,我们也一般用矩阵\left ( w1,w2,....,wn \right )^T来表示;

b即bias代表偏移。

第二、模型评估,损失函数的选择

有了模型,怎样判断一个模型的好坏,也就是判断模拟出来的结果准不准确,这个时候就引入了损失函数的概念,损失函数换个表达其实就是真实值与模拟值的偏差,偏差越小即模型一般表现得越好。为什么要叫函数,我的理解就是把偏差转化为函数的形式,将实际问题转换为数学问题,而且在计算机中也更容易实现。

线性模型中我们一般损失函数即均方误差,也就是实际值与理论值的差的平方,

L_{f} = \sum \left ( y_{t} - f \right )^{2}

其中当x = x_{i}时,y_{t}为此时真实值,f为此时模型的模拟值。

我们基于均方误差最小化来进行模型求解的方法就叫做最小二乘法。

ML圣经《西瓜书》中说到:均方误差具有非常好的几何意义,它对应了常用的欧几里得距离,简称“欧氏距离”。在线性回归中,最小二乘法就是试图找到一条直线,使所有样本到直线上的欧式距离之和为最小。

第三、梯度下降,找到最佳模型

你要相信现实生活中的“重量”往往比理想中的“重量”多得多,说的就是w,所以在此就考虑w只有一个的情况。

要找到最佳w,需要随机选取一个w的初始值然后对对w求偏导数,计算出来的偏导数即斜率,如果此时斜率大于0,则w降低,如果斜率小于0,则w增加,变化的多少取决与设置的学习率,然后一直重复,知道找到最低点

b同理,这样的一个方法就叫梯度下降法

但是现实的情况会更复杂,有时一味的把loss做低可能会让模型的次数变高,虽然loss低了,但是与真实情况会出现很大的偏差也就是过拟合情况,在拟合的点会拟合的非常好,在非拟合的点就会非常不拟合。

如何让模型更好呢,那就需要更多的data,更多的参数,然后加入正则化。

以上即个人学习的拙劣理解,如有问题欢迎指正,感谢!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值