python最小二乘法拟合模型的loocc误差,【2%】100小时机器学习——简单线性回归...

简单线性回归

前言

可能第一部分的内容看了还不知道在干啥,别急,毕竟你才学习了一个小时(其中包括半个小时搭建环境)。GO ON!

先来看一下一个概念:

简单线性回归

在统计学中,线性回归是利用称为线性回归方程的最小二乘函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。简单说来,就是根据自变量值(X)来预测因变量值(Y)的方法。我们假设X和Y之间存在着某种线性关系,如果我们找到了该关系,那么就可以根据X来预测Y值,也就是寻找“最佳拟合线”来最小化预测误差。

这一部分说白了就是我们数学中学的线性函数:y = ax + b,用一堆已知的数据描绘出这条拟合线,机器就学会了利用这个模型进行预测了。

本例使用的案例是利用学生的学习时间来预测其分数(突然想到了褒贬不一的10000小时理论,如果能有大量的数据,完全可以用机器学习来验证该理论的真实性和实用性)

本例使用的数据文件这里点右键保存

07b817ec030f

Day 2.jpg

Step 1:数据预处理

即[1%]中的内容

导入相关库

导入数据集

检查缺失函数

划分数据集

特征缩放

import pandas as pd

import numpy as np

import matplotlib.pyplot as plt

dataset = pd.read_csv('studentscores.csv')

X = dataset.iloc[ : , : 1 ].values

Y = dataset.iloc[ : , 1 ].values

from sklearn.cross_validation import train_test_split

X_train, X_test, Y_train, Y_test = train_test_split( X, Y, test_size = 0.25, random_state = 0)

Step 2:通过训练集训练简单线性回归模型

这里我们从sklearn.linear_model中导入LinearRegression类,创建一个实例regressor,使用fit函数对数据进行训练。

from sklearn.linear_model import LinearRegression

regressor = LinearRegression()

regressor = regressor.fit(X_train, Y_train)

Step3: 预测结果

训练结束之后,来测试一下训练成果,使用predict函数,把结果存在Y_pred向量中。

Y_pred = regressor.predict(X_test)

Step4: 可视化

人类都是视觉动物,让我们把训练集结果和测试集结果用matplotlib.pyplot库生成散点图,查看我们的模型预测效果。

#可视化训练集

plt.scatter(X_train , Y_train, color = 'red')

plt.plot(X_train , regressor.predict(X_train), color ='blue')

plt.show()

#可视化测试集

plt.scatter(X_test , Y_test, color = 'red')

plt.plot(X_test , regressor.predict(X_test), color ='blue')

plt.show()

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值