通过jupyter notebook用python实现线性回归

1.今天小关要讲的是用python实现线性回归

2.来吧,展示:

#python实现线性回归
import numpy as np
import pandas as pd
from numpy.linalg import inv
from numpy import dot
from sklearn.model_selection import train_test_split
import matplotlib.pyplot as plt
from sklearn import linear_model
# 最小二乘法
def lms(x_train,y_train,x_test):
  theta_n = dot(dot(inv(dot(x_train.T, x_train)), x_train.T), y_train) # theta = (X'X)^(-1)X'Y
  #print(theta_n)
  y_pre = dot(x_test,theta_n)
  mse = np.average((y_test-y_pre)**2)
  #print(len(y_pre))
  #print(mse)
  return theta_n,y_pre,mse
#梯度下降算法
def train(x_train, y_train, num, alpha,m, n):
  beta = np.ones(n)
  for i in range(num):
    h = np.dot(x_train, beta)       # 计算预测值
    error = h - y_train.T         # 计算预测值与训练集的差值
    delt = 2*alpha * np.dot(error, x_train)/m # 计算参数的梯度变化值
    beta = beta - delt
    #print('error', error)
  return beta
if __name__ == "__main__":
    #iris.csv保存为自己的本地路径
  iris = pd.read_csv('E:\新加卷(E)\python学习\iris.csv')
  iris['Bias'] = float(1)
  x = iris[['Sepal.Width', 'Petal.Length', 'Petal.Width', 'Bias']]
  y = iris['Sepal.Length']
  x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.2, random_state=5)
  t = np.arange(len(x_test))
  m, n = np.shape(x_train)
  # Leastsquare
  theta_n, y_pre, mse = lms(x_train, y_train, x_test)
  # plt.plot(t, y_test, label='Test')
  # plt.plot(t, y_pre, label='Predict')
  # plt.show()
  # GradientDescent
  beta = train(x_train, y_train, 1000, 0.001, m, n)
  y_predict = np.dot(x_test, beta.T)
  # plt.plot(t, y_predict)
  # plt.plot(t, y_test)
  # plt.show()
  # sklearn
  regr = linear_model.LinearRegression()
  regr.fit(x_train, y_train)
  y_p = regr.predict(x_test)
  print(regr.coef_,theta_n,beta)
  l1,=plt.plot(t, y_predict)
  l2,=plt.plot(t, y_p)
  l3,=plt.plot(t, y_pre)
  l4,=plt.plot(t, y_test)
  plt.legend(handles=[l1, l2,l3,l4 ], labels=['GradientDescent', 'sklearn','Leastsquare','True'], loc='best')
  plt.show()

  分享iris.csv下载地址:    http://yy.jb51.net:81/201812/yuanma/iris.csv(jb51.net).rar

3.打印结果:

 

 4.代码有点长,希望耐心分析,不懂的地方可以私信我,下面有联系方式

希望能帮到大家,问你们要一个赞,你们会给吗,谢谢大家
版权声明:本文版权归作者(@攻城狮小关)和CSDN共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利。
大家写文都不容易,请尊重劳动成果~ 
交流加Q:1909561302
博客园地址https://www.cnblogs.com/guanguan-com/

  • 6
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: Jupyter Notebook是一种基于网页的交互式计算环境,支持多种编程语言。在Jupyter Notebook中,可以使用Python语言进行多元线性回归分析。 多元线性回归是一种用于建立多个自变量与一个因变量之间关系的统计模型。它的基本思想是通过线性组合多个自变量来预测因变量。 在Jupyter Notebook中进行多元线性回归分析,首先需要导入相关的Python库,如numpy和pandas用于数据处理,以及statsmodels和sklearn用于模型建立和评估。 接下来,需要准备用于回归分析的数据集。可以从csv文件中读取数据,并使用pandas将数据转换为DataFrame格式。然后,根据需要选择自变量和因变量,并进行数据预处理,如缺失值填充、特征标准化等操作。 在数据准备完成后,可以使用statsmodels库中的OLS(Ordinary Least Squares)函数来建立多元线性回归模型。该函数接受自变量和因变量作为参数,并返回一个OLS对象。然后,使用该对象的fit方法进行模型拟合。 完成模型拟合后,可以使用模型的summary方法查看回归结果,其中包括自变量的系数、标准误差、t值和p值等信息。如果需要预测新的因变量值,可以使用模型的predict方法。 此外,sklearn库中的LinearRegression类也可以用于多元线性回归模型的建立和评估。使用该类需要先将自变量和因变量分别保存为数组,然后调用fit方法拟合模型,并使用coef_属性查看自变量的系数。 总结而言,Jupyter Notebook可以方便地进行多元线性回归分析。通过导入相应的Python库,准备数据集,建立回归模型,并进行模型评估和预测,可以轻松完成多元线性回归分析任务。 ### 回答2: Jupyter Notebook 是一个交互式的开发环境,可以让用户在网页端编写和运行代码,并且能够保存代码执行过程中的结果和图表等信息。多元线性回归是一种用于建立自变量与因变量之间关系的模型方法。 在 Jupyter Notebook 中进行多元线性回归分析,首先需要导入所需的库,如 pandas、numpy 和 statsmodels。然后,读取包含数据的文件,并使用 pandas 将数据存储在一个数据框中。接下来,可以使用 statsmodels 的回归函数来建立多元线性回归模型。 在建立模型之前,需要先确定自变量和因变量之间的关系。在多元线性回归中,一个因变量可以被多个自变量所解释。然后,可以使用 statsmodels 的 OLS 函数(普通最小二乘函数)来拟合模型。在拟合模型之后,可以查看回归结果的摘要,其中包括回归系数、截距、标准误差、t 值和 p 值等统计指标。 除了建立模型之外,还可以对模型进行诊断:检查模型的拟合情况、残差的正态性和同方差性等。通过绘制残差图和 QQ 图可以对模型进行初步判断。如果模型的残差呈现某种规律,就意味着模型可能存在问题。通过进行模型的修正和改进,可以提高模型的拟合效果。 最后,还可以使用建立好的多元线性回归模型进行预测和预测性分析。通过给定自变量的数值,可以预测因变量的数值。同时,可以使用模型评估指标(如 R2 分数)来评估模型的预测效果。 总之,Jupyter Notebook 是一个方便的工具,可以用于多元线性回归的建立、拟合、诊断和预测。它使得数据分析和建模更加直观和可视化,并且可以通过代码的重复执行来不断优化模型。 ### 回答3: jupyter notebook是一种交互式开发工具,常用于数据分析和机器学习等领域。多元线性回归是一种回归分析方法,适用于当一个因变量与多个自变量之间存在线性关系时。 在jupyter notebook中进行多元线性回归,首先需要导入所需的库,如numpy和pandas,用于数据处理和计算。然后,可以读取并加载需要进行回归分析的数据集。 接下来,可以使用线性回归模型进行拟合。可以使用sklearn库中的LinearRegression类来创建一个线性回归模型对象,并将自变量和因变量传递给该对象。 然后,可以使用拟合好的模型对象进行预测。可以使用模型的predict方法来对新的自变量进行预测,得到相应的因变量的预测值。 在拟合和预测之后,可以评估模型的性能。可以使用各种评估指标,如均方误差(MSE)、决定系数(R-squared)等来评估模型的准确度和拟合程度。 最后,可以对结果进行可视化展示。可以使用matplotlib库来绘制回归线和散点图,观察预测结果的拟合程度,并对数据进行可视化分析。 总之,通过使用jupyter notebook进行多元线性回归分析,可以方便地进行数据处理、模型拟合、预测和结果可视化等步骤,以帮助我们理解和解释自变量对因变量的影响关系。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

攻城狮小关

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值