线性回归

一.线性回归

  1. 线性回归的数据集的形式为多个属性X与一个对应的Y,目的是求解X与Y之间的线性映射关系,优化求解参数的目标是降低预测值与Y之间的差别,“差别”的度量方式有很多种(如均方误差,均方根误差等等),其中若属性X只有一个,则在X,Y组成的二维空间下求解最小二乘法来估计参数。若属性X为多个,则可以写出均方误差的矩阵形式,通过正规化来求解,当求解不唯一的时候需要使用正则化等手段进一步约束并求解参数。
  2. 一般矩阵形式:f(x)=wTx+b。
    在这里插入图片描述

二.线性回归的损失函数、代价函数、目标函数

  1. 损失函数:对单个样本的误差,即其真实值和预测值间的差距。
  2. 代价函数:整个训练集所有损失之和的平均值。
  3. 目标函数:代价函数加上正则化项。
    在这里插入图片描述

三.参数解析求解

  1. 均方误差的高斯噪声模型假设
    均方误差可看作高斯噪声模型的假设下的最大似然解
    在这里插入图片描述
  2. 目标函数推导
    下图第一行:回归方程(含均方误差),期望均方误差最小
    第二行:高斯分布的均方误差的概率密度函数
    第三行:代换掉均方误差的概率密度函数,由回归方程,用y、θ、x将均方误差 替换,即变为求最优的θ
    第四式子:θ的似然函数
    在这里插入图片描述
    接上图,下图第一式子:转为θ的对数似然函数,求所有概率乘积最大值,即要让第六式子最小
    第二式子:目标函数,取最小值
    在这里插入图片描述
  3. 目标函数推导
    下图为解析求解推导。
    在这里插入图片描述
    在这里插入图片描述
  4. 梯度下降求解
    sgd随机梯度下降,计算全部样本随机下降
    批量梯度下降,批量样本,速度快,可在线分批次。
    mini-batch折中梯度下降,小批量样本,速度快,可在线分批次。
    在这里插入图片描述
    在这里插入图片描述
  5. L1、L2正则
    如下图,惩罚因子,θ平方损失即L2正则(ridge),目标函数要最小,则大的θ值被砍掉,防止过拟合。
    换成θ绝对值损失为L1正则(lasso),一般不如ridge效果好。
    在这里插入图片描述
  6. 线性回归的评估指标
    1)残差平方和(SSE):真实值与预测值之差的平方和。SSE越小越好,越小说明模型拟合越好。
    (2) 判定系数(R2):回归平方和占总平方和的比例,等于回归平方和(SSR)/总平方和(SST),又等于1—SSE/SST。判定系数测度了回归直线对观测数据的拟合程度。判定系数越大,说明线性回归方程拟合的越好。
    在这里插入图片描述
  7. 线性回归sklearn参数
    LinearRegression(fit_intercept=True,normalize=False,copy_X=True,n_jobs=1)
    (1)fit_intercept:是否有截据,如果没有则直线过原点。默认为True.

说明:是否对训练数据进行中心化。如果该变量为false,则表明输入的数据已经进行了中心化,在下面的过程里不进行中心化处理;否则,对输入的训练数据进行中心化处理。

(2)normalize:是否将数据归一化。

(3)copy_X:默认为True,当为True时,X会被copied,否则X将会被覆写.。(即经过中心化,标准化后,是否把新数据覆盖到原数据上)。

(4)n_jobs:默认值为1。计算时使用的核数。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值