这段代码是一个简单的线性回归模型。它使用了`pandas`库来读取一个CSV文件,然后使用`numpy`库将数据集分割成自变量X和因变量Y。
接下来,代码使用`train_test_split`函数从整个数据集中划分出训练集和测试集。其中,`test_size`参数指定了测试集占整个数据集的比例,这里设置为1/4。
然后,代码导入`LinearRegression`类,并创建一个`regressor`对象作为线性回归模型。通过调用`fit`方法,将训练集的自变量X和因变量Y传递给模型进行训练。
接着,使用`predict`方法对测试集的自变量X进行预测,得到预测结果Y_pred。
最后,使用`matplotlib`库绘制了两个散点图和对应的拟合直线。第一个散点图显示了训练集的自变量X和因变量Y,并绘制了拟合直线。第二个散点图显示了测试集的自变量X和因变量Y,并绘制了拟合直线。
通过绘制散点图和拟合直线,可以直观地观察到模型对数据的拟合程度。
这段代码展示了如何使用线性回归模型对数据进行拟合和预测,并通过图形化展示来评估模型的性能。
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
dataset = pd.read_csv('F:\\桌面\\Datasets\\100-days-ML\\studentscores.csv')
X = dataset.iloc[ : , : 1 ].values
Y = dataset.iloc[ : , 1 ].values
print(X)
print(Y)
from sklearn.model_selection import train_test_split
X_train, X_test, Y_train, Y_test = train_test_split( X, Y, test_size = 1/4, random_state = 0)
from sklearn.linear_model import LinearRegression
regressor = LinearRegression()
regressor = regressor.fit(X_train, Y_train)
Y_pred = regressor.predict(X_test)
plt.scatter(X_train , Y_train, color = 'red')
plt.plot(X_train , regressor.predict(X_train), color ='blue')
plt.show()
plt.scatter(X_test , Y_test, color = 'red')
plt.plot(X_test , regressor.predict(X_test), color ='blue')
plt.show()