机器学习入门1:线性回归

机器学习入门1:线性回归

1.线性回归概念

     通过线性关系来描述输入到输出的映射关系,常见的应用场景有:网络分析、银河风险分析、基金估价预测、天气预报……

2.线性回归例子

     假设有一组数据,通过画图的方式显示出来。我们发现这些数据的点大部分都落在某一条线上面,那么我们可以尝试线性回归来做模型。尝试找出最佳的参数W,可以通过特征变量X的线性关系来预测结果Y。

在这里插入图片描述
在这里插入图片描述

     假设特征X1,X2,X3与结果Y存在某种线性关系,但是我们并不知道最佳参数a,b,c,d具体的值。(a,b,c就是上图模型的w1,w2,w3)接下来,我们看下图:
在这里插入图片描述
  怎么样才算是最佳参数a,b,c,d呢?
     最佳系数a,b,c,d应是输入变量X结合系数a,b,c,d得出的预测结果Y与真实结果Yt相近,预测结果Y与真实结果Yt相减的结果越小,证明映射关系就越好。怎么找出最小的结果?我们就要使用最优化方法去解决这个问题。

3.梯度下降 / 上升法

在这里插入图片描述
如上图:
梯度下降法相当于在一个山坡寻找一个最低点,其中:

  1. 山坡高度:Loss就是你的预测结果Y与实际结果Yt的差别
  2. 地面位置: 参数
  3. 山坡最低点:目标参数
  4. 怎么到达: 下坡方向,梯度下降
  5. 怎么找方向: 高度对地面关系的导数

这里,就帮大家复习一下导数的定义:
      导数(Derivative),也叫导函数值。又名微商,是微积分中的重要基础概念。当函数y=f(x)的自变量x在一点x0上产生一个增量Δx时,函数输出值的增量Δy与自变量增量Δx的比值在Δx趋于0时的极限a如果存在,a即为在x0处的导数,记作f’(x0)或df(x0)/dx。

     导数是函数的局部性质。一个函数在某一点的导数描述了这个函数在这一点附近的变化率。如果函数的自变量和取值都是实数的话,函数在某一点的导数就是该函数所代表的曲线在这一点上的切线斜率。导数的本质是通过极限的概念对函数进行局部的线性逼近。例如在运动学中,物体的位移对于时间的导数就是物体的瞬时速度。

     不是所有的函数都有导数,一个函数也不一定在所有的点上都有导数。若某函数在某一点导数存在,则称其在这一点可导,否则称为不可导。然而,可导的函数一定连续;不连续的函数一定不可导。

     对于可导的函数f(x),x↦f’(x)也是一个函数,称作f(x)的导函数(简称导数)。寻找已知的函数在某点的导数或其导函数的过程称为求导。实质上,求导就是一个求极限的过程,导数的四则运算法则也来源于极限的四则运算法则。 反之,已知导函数也可以倒过来求原来的函数,即不定积分。微积分基本定理说明了求原函数与积分是等价的。求导和积分是一对互逆的操作,它们都是微积分学中最为基础的概念。


     所以要找出最低的位置,就是朝下走某个梯度m,不停地往下走直到达最低点位置。
     那么对于线性方程我们要怎么算呢?我们求的是高度(Loss)与位置(参数)的关系 那就是算Loss对参数a,b,c,d的导数就是梯度
在这里插入图片描述

我们分别对参数a,b,c,d单独求导就可以得出特征值X1,X2,X3,得到梯度后,我们可以进行梯度更新。然后就很容易找到了最低点。。。

在这里插入图片描述


转载文章

https://www.bilibili.com/video/av10324235/?p=2
小象学院

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
机器学习入门中的线性回归是一种有监督学习方法,用于建立一个线性模型,以预测一个连续的输出变量。线性回归的目标是通过在训练数据上学习到的权重和偏差,使得预测值与实际值之间的差距最小化。 在线性回归中,我们通过拟合一个线性函数来建立模型。这个线性函数可以表示为 y = w*x + b,其中 y 是预测的输出变量,x 是输入变量,w 是权重,b 是偏差。 为了找到最佳的权重和偏差,我们使用了最小二乘法来最小化预测值与实际值之间的平方差。具体地说,我们将训练数据中的每个样本的预测值与实际值之间的平方差相加,然后通过调整权重和偏差来最小化这个总和。 除了基本的线性回归之外,我们还可以引入正则化的概念,例如 L1 正则化和 L2 正则化。这些正则化项可以帮助我们限制模型的复杂度,防止过拟合的发生。L1 正则化通过加上权重的绝对值之和,而 L2 正则化则通过加上权重的平方和来实现。 线性回归机器学习中最简单也是最常用的方法之一,它被广泛应用于预测和分析任务中。了解线性回归的基本原理和应用可以为进一步学习其他机器学习方法打下基础。 参考资料: http://freemind.pluskid.org/machine-learning/sparsity-and-some-basics-of-l1-regularization/ http://www.cnblogs.com/LeftNotEasy/archive/2010/12/05/mathmatic_in_machine_learning_1_regression_and_gradient_descent.html The Elements of Statistical Learning,ch3<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [机器学习方法:回归(一):线性回归Linear regression](https://blog.csdn.net/weixin_30617797/article/details/95509767)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值