机器学习——线性回归算法


前言

最近准备开始学习机器学习,后续将对学习内容进行记录,该文主要针对线性回归中涉及得数学公式推导以及算法的理解进行记录!

一、线性回归是什么?


线性回归试图学得一个线性模型以尽可能准确地预测实值输出标记。


二、数学推导

1.问题引入

银行贷款会根据需要贷款人的工资和年龄进行额度的确定,这里给定5个数据样本如下图
在这里插入图片描述
那么我们最终拟合所得线性模型应为 f(x)=w1x1+w2x2+b,
其中w1可以理解工资这个特征对于最终额度的影响,w2可以理解年龄这个特诊对于最终额度的影响,b可以理解为偏置项(即实际额度可能有小额的偏差)
 
 

2.数学推导

对于参数给出相关定义
在这里插入图片描述
其中 θ 0 \theta_0 θ0为偏置系数,与数据无关,影响较小; θ 1 \theta_1 θ1 θ 2 \theta_2 θ2为权重系数,与数据有关,影响较大。
h θ ( x ) = ∑ i = 0 n θ i x i = θ 0 x 0 + θ 1 x 1 + θ 2 x 2 h_\theta(x)=\sum_{i=0}^n\theta_ix_i=\theta_0x_0+\theta_1x_1+\theta_2x_2 hθ(x)=i=0nθixi=θ0x0+θ1x1+θ2x2
那么 x 0 x_0 x0如何理解呢?可以为每一个样本引入一个新特征 x 0 x_0 x0,每个样本满足该特征 x 0 = 1 x_0=1 x0=1

这样就可以将拟合的平面函数转化成矩阵操作
h θ ( x ) = ∑ i = 0 n θ i x i = θ 0 x 0 + θ 1 x 1 + θ 2 x 2 = θ T x h_\theta(x)=\sum_{i=0}^n\theta_ix_i=\theta_0x_0+\theta_1x_1+\theta_2x_2=\mathbb{\theta^Tx} hθ(x)=i=0nθixi=θ0x0+θ1x1+θ2x2=θTx
 
 

3.误差说明

在这里插入图片描述
在这里插入图片描述
1.为什么误差服从高斯分布?
       可通过中心极限定理的另一种解释得到。受多种独立因素影响的随机变量,是服从正态分布的。而误差都是有多种独立(无相互影响)的误差源,因此,误差近似为正态分布。
2.如何理解独立?
       样本与样本之间无关,算法同等对待每个样本
3.如何理解同分布?
       每一个样本使用的算法确定且一致
 
 

3.推导

在这里插入图片描述
1.假设 ϵ \epsilon ϵ~ N ( 0 , σ 2 ) N(0,\sigma^2) N(0,σ2)可得式(2)
2.将(1)代入(2)后得到的式子可理解为真实存在的 y y y在不同 θ \theta θ取值下,出现的概率
在这里插入图片描述
3.极大似然函数就是去找到参数估计值,使得前面已经实现的样本值发生概率最大。因为你手头上的样本已经实现了,其发生概率最大才符合逻辑。(利用已知的样本结果,反推最有可能导致这样结果的参数值)
4.这时是求样本所有观测的联合概率最大化(每个真实存在的 y y y在不同 θ \theta θ取值下,出现概率最大),是个连乘积,只要取对数,就变成了线性加总。此时通过对参数求导数,并令一阶导数为零,就可以通过解方程(组),得到最大似然估计值。
在这里插入图片描述
5.通过化简后可知当 J ( θ ) J(\theta) J(θ)函数最小时,似然函数取极大
在这里插入图片描述
6.目标函数转化为矩阵的操作,读者可根据矩阵具体的行列进行推导
假设一共有5个样本,3个特征,那么 X X X为53矩阵, θ \theta θ为31矩阵, y y y为5*1矩阵,可根据矩阵维度帮助理解目标函数转为矩阵操作
7.所用到矩阵求导公式:
d y d x = d ( X T A X ) d X = 2 A X \frac{dy}{dx}=\frac{d(X^TAX)}{dX}=2AX dxdy=dXd(XTAX)=2AX
d y d x = d ( A X ) d X = A T \frac{dy}{dx}=\frac{d(AX)}{dX}=A^T dxdy=dXd(AX)=AT
d y d x = d ( X A ) d X = A \frac{dy}{dx}=\frac{d(XA)}{dX}=A dxdy=dXd(XA)=A
在这里插入图片描述
R 2 R^2 R2越接近1,模型效果越棒


总结

未完待续!

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
机器学习中,线性回归有多种模型可以使用。其中包括传统的线性回归模型和Lasso模型。 传统的线性回归模型是一种非常经典的方法,它通过拟合一个线性函数来预测因变量和自变量之间的关系。这个模型的数学原理可以通过最小二乘法来推导和求解。最小二乘法的目标是最小化预测值与实际观测值之间的残差平方和,从而得到最优的模型参数。\[1\] Lasso模型是一种用于处理多重共线性问题的算法。它通过对系数进行L1正则化来实现特征选择。L1正则化是指将系数的绝对值乘以一个正则化系数,使得一些特征的系数变为零,从而自动丢弃这些特征。Lasso模型在sklearn库中有相应的实现。\[2\] 线性回归回归分析中最常用的方法之一,因为它比非线性模型更容易拟合,并且估计的统计特性也更容易确定。线性回归模型可以使用最小二乘法来求解,通过最小化残差平方和来得到最优的模型参数。\[3\] 综上所述,机器学习线性回归有多种模型可供选择,包括传统的线性回归模型和Lasso模型。这些模型可以通过最小二乘法和L1正则化来求解。 #### 引用[.reference_title] - *1* [机器学习——线性回归模型及python代码实现](https://blog.csdn.net/qq_43045620/article/details/123079305)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [【机器学习线性回归】多元线性回归模型的搭建+Lasso回归的特征提取](https://blog.csdn.net/qq_43018832/article/details/128103389)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [机器学习常用模型-线性回归模型详解(简单易懂)](https://blog.csdn.net/weixin_43308610/article/details/123346498)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值