Python基于最小二乘法的一元线性回归方程

基于最小二乘法的一元线性回归方程

要求

  • 关于房价的,只需要一个自变量一个因变量

  • 用到最小二乘,但不是封装好的函数,有算法的具体实现

原理

最小二乘法

我们以最简单的一元线性模型来解释最小二乘法。什么是一元线性模型呢?
监督学习中,如果预测的变量是离散的,我们称其为分类(如决策树,支持向量机等),如果预测的变量是连续的,我们称其为回归。回归分析中,如果只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。对于二维空间线性是一条直线;对于三维空间线性是一个平面,对于多维空间线性是一个超平面。

对于一元线性回归模型, 假设从总体中获取了n组观察值(X1,Y1),(X2,Y2), …,(Xn,Yn)。对于平面中的这n个点,可以使用无数条曲线来拟合。要求样本回归函数尽可能好地拟合这组值。综合起来看,这条直线处于样本数据的中心位置最合理。 选择最佳拟合曲线的标准可以确定为:使总的拟合误差(即总残差)达到最小。有以下三个标准可以选择:

    (1)用“残差和最小”确定直线位置是一个途径。但很快发现计算“残差和”存在相互抵消的问题。
    (2)用“残差绝对值和最小”确定直线位置也是一个途径。但绝对值的计算比较麻烦。
    (3)最小二乘法的原则是以“残差平方和最小”确定直线位置。用最小二乘法除了计算比较方便外,得到的估计量还具有优良特性。这种方法对异常值非常敏感。

最常用的是普通最小二乘法(Ordinary Least Square,OLS):所选择的回归模型应该使所有观察值的残差平方和达到最小。(Q为残差平方和)- 即采用平方损失函数。

image

代码

#!/usr/bin/env python
#-*- coding:utf-8 -*-
# author:FCQ
# datetime:2018/4/22 21:40
# software: PyCharm

#本代码从文件获取数据

import matplotlib.pyplot as plt
import numpy as np
import csv

def get_a(x):
    a = 0.0
    for i in x:
        a = a + (i * i)
    return a

def get_b(x):
    a = 0.0
    for i in x:
        a = a + i
    return a

def get_c(x, y):
    a = 0.0
    for i in range(len(x)):
        a = a + x[i] * y[i]
    return a

def get_d(y):
    a = 0.0
    for i in y:
        a = a + i
    return a

def print_list(ilist):
    '打印数据,没啥用'
    for i in ilist:
        print(i, ",", end = "")
    print("\n")

plt.figure()#使用plt.figure定义一个图像窗口
plt.title('single variable')#图像标题
plt.xlabel('x')#x轴标题
plt.ylabel('y')#y轴标题
#数据组
listx = []
listy = []
count = 0
with open("slr_data.csv", "r") as csvfile:#从文件中获取数据
    reader = csv.reader(csvfile)
    for line in reader:
        count = count + 1
        if count == 1:
            continue
        listx.append(eval(line[0]))
        listy.append(eval(line[1]))

plt.grid(True)#是否打开网格
x = np.linspace(0, 8000)#线性回归方程线

#等式计算
A = get_a(listx)
B = get_b(listx)
C = get_c(listx, listy)
D = get_d(listy)
n = len(listx)
a = (B*D-C*n)/(B*B-n*A)
b = (B*C-D*A)/(B*B-n*A)
plt.scatter(listx, listy)#描点
plt.plot(x, a * x + b, 'b-')#绘制线条

#线性回归方程
a = "%.4f" % a
b = "%.4f" % b
print('y='+a+'*x'+'+'+'('+b+')')
plt.pause(1)#画图延时

#预测环节
x = input("请输入x,预测y-->>")
x = int(x)
y = float(a) * x + float(b)
print('y', '=', y)

项目github地址

结果图

这里写图片描述

### 回答1: 以下是 Python 中使用最小二乘法拟合多元线性回归的示例代码: ```python import numpy as np from numpy.linalg import inv # 设置数据 x = np.array([[1, 2, 3], [1, 3, 4], [1, 4, 5], [1, 5, 6]]) y = np.array([5, 6, 7, 8]) # 使用最小二乘法解回归系数 beta = inv(x.T.dot(x)).dot(x.T).dot(y) # 打印回归系数 print(beta) ``` 上述代码中,我们首先设置了数据,其中 `x` 是一个 $4\times3$ 的矩阵,每行表示一个样本,第一列都为 $1$,后两列为自变量。`y` 是一个长度为 $4$ 的一维数组,表示因变量。 然后使用最小二乘法解回归系数,其中 `inv(x.T.dot(x)).dot(x.T)` 表示 $(X^TX)^{-1}X^T$,`dot(y)` 表示与因变量相乘,得到回归系数。 最后打印出回归系数即可。 ### 回答2: Python中可以使用`numpy`库的`polyfit`函数来进行最小二乘法拟合多元线性回归。 首先,我们需要导入`numpy`库并读取输入数据。假设我们有N个数据点,其中$x_i$是自变量,$y_i$是对应的因变量。 ```python import numpy as np # 输入数据 x = np.array([x1, x2, ..., xn]) # 自变量 y = np.array([y1, y2, ..., yn]) # 因变量 ``` 然后,通过调用`polyfit`函数来进行多元线性回归的拟合。这个函数的第一个参数是自变量,第二个参数是因变量,第三个参数是回归的次数(在多元线性回归中,回归的次数就是自变量的个数)。 ```python coefficients = np.polyfit(x, y, degree) ``` 这样,`coefficients`就是回归方程中自变量$x_i$的系数。例如在二元线性回归中,`coefficients`将包含两个元素,分别是$x$和$y$的系数。 最后,我们可以使用`poly1d`函数将系数转换为多项式对象。这样我们就可以使用这个多项式对象来做预测。 ```python fitted_model = np.poly1d(coefficients) # 使用拟合函数做预测 y_predicted = fitted_model(x) ``` 以上就是Python中使用最小二乘法进行多元线性回归拟合的代码。注意,在实际使用中,我们可能还需要进行数据预处理、验证拟合结果等操作。这里只给出基本的代码结构,具体实现可能会有所不同。 ### 回答3: 最小二乘法是一种常用的拟合方法,用于解决多元线性回归问题。在Python中,可以使用NumPy库提供的polyfit函数来实现最小二乘法的拟合。 首先,需要导入NumPy库: import numpy as np 然后,定义输入变量x和输出变量y的数据: x = np.array([1, 2, 3, 4, 5]) y = np.array([2, 4, 6, 8, 10]) 接下来,使用polyfit函数进行拟合,需要传入输入变量x、输出变量y以及多项式的阶数,其中阶数为1即为一元线性回归。函数返回一个包含两个元素的数组,第一个元素为回归方程中的斜率(系数),第二个元素为截距(常数项): coefficients = np.polyfit(x, y, 1) 最后,可以打印出拟合的结果: slope = coefficients[0] intercept = coefficients[1] print("斜率:", slope) print("截距:", intercept) 运行上述代码,即可得到拟合的斜率和截距。 需要注意的是,最小二乘法是一种简单的拟合方法,可以用于处理简单的线性回归问题。对于复杂的多元线性回归问题,建议使用更高级的拟合方法,如正则化方法。此外,在实际应用中,数据的处理和预处理也非常重要,可以使用Pandas、Scikit-learn等库来进行数据处理和分析。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值