Machine Learning A-Z学习笔记2

这篇博客介绍了简单线性回归的基本原理,包括自变量、因变量、常量和系数的概念。通过一个实例展示了如何使用Python的sklearn库进行模型训练和预测,利用 Salary_Data.csv 数据集进行训练和测试集划分。最终通过图像化展示回归线与实际数据点的对比,评估模型性能。
摘要由CSDN通过智能技术生成

Machine Learning A-Z学习笔记

第二章 简单线性回归

1.简单原理

在这里插入图片描述

简单线性回归(Simple Linear Regression):只有1个自变量

自变量(Indenpent Variable)

因变量(Denpent Variable)

常量(Constant)

系数(Coefficient)

在这里插入图片描述

一个简单例子。

  1. 初始薪水30k,这就是常量。
  2. 每增加1年的薪水增加10,这就是系数。
  3. 薪水受到年份影响,因此薪水为因变量,年份为自变量。
  4. 黑色线条为回归线,代表薪水于年份的关系。。
  5. 红点为实际数据点在这里插入图片描述

评论模型好坏,可以通过例如 普通最小二乘法来比较预测,越小代表效果越好

2.实现代码



# 简单线性回归

# 导入标准库
import numpy as np
import matplotlib.pyplot as plt
import pandas as pd


# 导入数据集
dataset = pd.read_csv('Salary_Data.csv')
X = dataset.iloc[:,:-1].values
y = dataset.iloc[:,1].values


# 将数据分为训练集和测试集
from sklearn.model_selection import train_test_split
X_train,X_test,y_train,y_test = train_test_split(X,y,test_size=1/3,random_state = 0)


#导入线性回归类
from sklearn.linear_model import LinearRegression
regressor =  LinearRegression()   
regressor.fit(X_train, y_train)

#用回归器预测测试集应变量的结果
y_pred = regressor.predict(X_test)

#图像化
plt.scatter(X_train, y_train, color='red')
plt.plot(X_train, regressor.predict(X_train), color='blue')
#图像加上标题
plt.title('Salary VS Experience (training set)')
plt.xlabel('Years of Experience')
plt.ylabel('Salary')
plt.show()


#预测结果和新的样品比较
#测试集实际数据和回归器二点比较情况
plt.scatter(X_test, y_test, color='red')
plt.plot(X_train, regressor.predict(X_train), color='blue') 
#图像加上标题
plt.title('Salary VS Experience (test set)')
plt.xlabel('Years of Experience')
plt.ylabel('Salary')
plt.show()



  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值