机器学习之简单线性回归


前言中我们可以看到,目标标记为连续型数值的是回归。而回归又分为线性和非线性

1.简单线性回归

很多做决定过程通常是根据两个或者多个变量之间的关系

  • 回归分析(regression analysis):用来建立方程模拟两个或者多个变量之间如何关联
  • 自变量(independent variable):x, 输入(input),被 用来逬行预测的变量
  • 因变量(dependent variable): y.输出(output),被预测的变量
  • 简单线性回归(simple linear regression):简单线性回归包含一个自变量(X)和一个因变量(y),即一元一次函数。两个变量的关系用一条直线来模拟。如果包含两个以上的自变量,则称作多元回归分析(multiple regression)
  • 简单线性回归模型:被用来描述因变量 (y)和自变量(X)以及偏差 (error)之间关系的方程叫做回归模型

在这里插入图片描述
其中,β0,β1是参数,ε是偏差

  • 简单线性回归方程
    在这里插入图片描述
    为一元一次方程,直角坐标中是一条直线,称为回归线
    其中,β0是截距,β1是斜率,E(y)是在给定一个x下的y的期望值

  • 正向线性关系
    在这里插入图片描述
    负向线性关系
    在这里插入图片描述
    无关系
    在这里插入图片描述

  • 估计的简单线性回归方程
    在这里插入图片描述

2.线性回归分析流程

在这里插入图片描述
注:b0,b1是样本中数据得到的估计的参数,只能代表某样本的参数; β0,β1是整体样本数据得到的参数

3.线性回归实例

设一周内卖家做电视广告数量与售出汽车数量由如下关系:
在这里插入图片描述
如何训练出适合简单线性回归模型的最佳回归线?

最佳回归线应该满足:
在这里插入图片描述
即每一个点(Xi,Yi)的Yi与回归线上横坐标为Xi时纵坐标Yi^的差值的平方之和最小
b0,b1(样本中数据得到的估计的参数)的计算公式:
在这里插入图片描述
经计算:在这里插入图片描述
b1:
在这里插入图片描述
b0:
在这里插入图片描述
y的估计:
在这里插入图片描述
在这里插入图片描述
注:y顶上由^代表估计
预测:一周内做广告数为6,预测售出的汽车数量为多少?
在这里插入图片描述
更多文章:https://blog.csdn.net/qq_33208851/article/details/95230847

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
线性回归机器学习中的一种基本算法,梯度下降法是线性回归中常用的优化算法。下面是线性回归梯度下降法的实现步骤: 1.读取数据集,包括自变量和因变量。 2.初始化相关参数,包括学习率、迭代次数、截距和斜率等。 3.定义计算代价函数,常用的代价函数是均方误差(MSE)。 4.梯度下降,通过不断迭代更新截距和斜率,使得代价函数最小化。 5.执行梯度下降算法,得到最优的截距和斜率。 下面是Python代码实现: ```python import numpy as np # 读取数据集 def load_data(file_path): data = np.loadtxt(file_path, delimiter=',') x_data = data[:, :-1] y_data = data[:, -1] return x_data, y_data # 初始化相关参数 def init_params(): b = 0 k = 0 learning_rate = 0.01 num_iterations = 1000 return b, k, learning_rate, num_iterations # 定义计算代价函数 def compute_cost(b, k, x_data, y_data): total_error = 0 for i in range(len(x_data)): total_error += (y_data[i] - (k * x_data[i] + b)) ** 2 cost = total_error / float(len(x_data)) return cost # 梯度下降 def gradient_descent(b, k, x_data, y_data, learning_rate, num_iterations): m = float(len(x_data)) for i in range(num_iterations): b_gradient = 0 k_gradient = 0 for j in range(len(x_data)): b_gradient += (1/m) * ((k * x_data[j] + b) - y_data[j]) k_gradient += (1/m) * ((k * x_data[j] + b) - y_data[j]) * x_data[j] b = b - (learning_rate * b_gradient) k = k - (learning_rate * k_gradient) return b, k # 执行梯度下降算法 def linear_regression(file_path): x_data, y_data = load_data(file_path) b, k, learning_rate, num_iterations = init_params() print("Starting parameters: b = {0}, k = {1}, cost = {2}".format(b, k, compute_cost(b, k, x_data, y_data))) b, k = gradient_descent(b, k, x_data, y_data, learning_rate, num_iterations) print("After {0} iterations: b = {1}, k = {2}, cost = {3}".format(num_iterations, b, k, compute_cost(b, k, x_data, y_data))) # 调用线性回归函数 linear_regression('data.csv') ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值