线性回归.

本文深入讲解了线性回归的基本原理,包括其数学公式、损失函数(均方误差)和优化算法(梯度下降与最小二乘法)。通过Sklearn库实现实例,介绍了如何使用LinearRegression模型,从训练集拟合到预测,并探讨了正态分布假设。最后,展示了交叉验证在模型优化中的应用。
摘要由CSDN通过智能技术生成

线性回归

线性回归假设目标值和特征值之间存在线性相关,即满足多元一次方程。其公式为:
y ′ = w ∗ x + b y' = w*x+b y=wx+b
y ′ y' y为预测值,线性回归模型是利用数据特征,求解 w , b w,b wb两个参数。
损失函数
L = 1 n ∑ k = 1 n ( y i ′ − y i ) 2 L = \frac{1}{n} \sum_{k=1}^n (y'_i - y_i)^2 L=n1k=1n(yiyi)2
即预测值和真实值之间的平均的平方距离,MAE(均方误差)
优化算法:梯度下降法和最小二乘法。

代码

sklearn中包含线性回归模型的包

from sklearn.linear_model import LinearRegression
linreg = LinearRegression()
linreg.fit(x_train, y_train)  # 训练集特征x和标签y
linreg.intercept_  # 查看模型偏置系数
linreg.coef_ #查看模型参数系数
y_pred = linreg.predict(x_test)  # 对测试集进行预测

# 利用交叉验证法,对模型进行优化
from sklearn.model_selection import cross_val_predict
pre = cross_val_predict(linreg, x, y, cv=10)

其它

  1. 线性回归是一种预测模型,利用各个特征去预测目标值。线性回归的假设前提是噪声符合正态分布。
  2. 线性回归要求因变量符合正态分布,这是由于线性回归的假设前提是特征与预测值呈线性关系,误差项符合高斯-马尔可夫条件(零均值,零方差,不相关),此时线性回归为无偏估计。噪声和因变量符合正态分布。
  3. 线性回归的五个假设:1.特征和标签呈线性关系;2.误差之间相互独立;3.自变量相互独立;4.误差项的方差应为常数;5.误差呈正态分布。
    参考1
    参考2
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值