预测房屋价格(使用SGDRegressor随机梯度下降回归)

线性回归:预测未来趋势01(预测房屋价格)



前言

使用SGDRegressor随机梯度下降回归


提示:以下是本篇文章正文内容:

一、案例介绍:

从房屋交易的历史记录中发现某种规律,来预测房屋价格的走势。(极其简略的版本)

划分为3个任务:
任务1:可视化房屋数据
任务2:训练线性回归模型
任务3:测试以及评估线性回归模型


二、架构图:(流程图)

1.通过观察散点图来确定是否可以使用线性回归。
2.不可就要寻找其他方法。否则进行下一步。(判断是否使用线性回归方法来预测)
3.数据预处理(合并、清洗、标准化、转换),在这里使用离差标准化的方式对数据进行标准化处理
4.训练模型fit
5.评估模型的性能score(判断模型是否合适)
6.使用模型预测房屋价格predict



三、使用了什么技术:(知识点)

(1)标准化数据:(有3种方式)

在这里插入图片描述



(2)预测准确率得分:Score

# 训练集 和 测试集的预测准确率得分
model.score(x_train,y_train)
model.score(x_test,y_test)

预测准确率得分score又叫做判定系数,
返回值反映了因变量y的波动有多少可以被自变量x的波动所描述,
就是y的波动中有多少可以由控制x来解释。
得分越高,线性回归方程的拟合程度越高。


(3)均方误差:MSE

MSE = np.mean((y_test - y_pred)**2)

均方误差(Mean Squared Error, MSE)是一种在回归分析中常用的损失函数,
用于衡量模型预测值与实际观测值之间的差异。
MSE 提供了预测错误的量化度量,帮助我们评估模型的性能。
较小的MSE值通常意味着模型的预测能力更强,即模型的预测值更接近实际观测值。


(4)SGDRegressor:随机梯度下降回归

SGDRegressor:实现随机梯度下降回归,
随机梯度下降是一种优化算法,常用于大规模数据集的线性回归问题。
Stochastic Gradient Descent:随机梯度下降


四、结果示意图:

在这里插入图片描述



在这里插入图片描述



在这里插入图片描述



五、具体代码与分析:

导库

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
# 导入随机梯度下降回归模型函数
from  sklearn.linear_model import SGDRegressor

任务1:可视化房屋数据

df=pd.read_csv('data\house.txt',sep=',',header=0)# 读取文件
plt.scatter(df['area'],df['price'],c='b')# 指定散点图的颜色为蓝色
plt.show()

header=0:表示以第0行数据为列名
df是数据框,df[‘area’]是单列数据Series,通过字典的方式进行访问
c:接收color或数组,这里接收的是‘blue蓝色;
如果接收的是一个数组,按照数组的值分配颜色,有多少种值,就有多少种颜色。(在分类里面常用到)


执行结果:(使用散点图进行可视化)

在这里插入图片描述



补充:(house.txt里面的数据展示)

在这里插入图片描述



任务2:训练线性回归模型

# 1.数据的归一化处理:min-max标准化
df=(df-df.min())/(df.max()-df.min())

# 2.产生训练集和测试集
train_data=df.sample(frac=0.8,replace=False)# 训练集
test_data=df.drop(train_data.index)# 测试集
#转换数据:将数据转换为二维数组的形式:行自适应,1列
x_train=train_data['area'].values.reshape(-1, 1)
y_train=train_data['price'].values
x_test=test_data['area'].values.reshape(-1, 1)
y_test=test_data['price'].values

# 3.构建并训练模型
model=SGDRegressor(max_iter=500,learning_rate='constant',eta0=0.01)# 构建线性回归模型
model.fit(x_train,y_train)# 训练模型
# 输出训练结果:准确率得分 和 模型的自变量系数、截距
pre_score=model.score(x_train,y_train)
print('score=',pre_score)
print('coef=',model.coef_,'intercept=',model.intercept_)

sample:用于从df中随机抽取样本
frac:表示抽取的比例
replace=False:表示每个样本只能被选中一次,不允许被替换???
使用sample的好处:有一定的随机性,是结果更加可靠。
train_data.index:获取train_data的行索引
reshape(-1, 1) :将一维数组转换为二维数组,其中每一行只有一个元素。用于某些函数或方法期望输入是一个二维数组时。
max_iter=500 :最大迭代次数为500次。
learning_rate=‘constant’:学习率策略是常数,即在整个训练过程中学习率保持不变。
eta0=0.01 :初始学习率是0.01。


执行结果:

在这里插入图片描述

补充:(x_test 和 y_test的结果展示)



在这里插入图片描述



在这里插入图片描述



任务3:测试以及评估线性回归模型

# 1.计算均方误差
y_pred=model.predict(x_test)
print('测试集准确性得分=%.5f'%model.score(x_test,y_test))
#计算测试集的损失(用均方差)
MSE=np.mean((y_test - y_pred)**2)# 误差的平方的均值
print('损失MSE={:.5f}'.format(MSE))

# 2.绘制效果预测图
plt.rcParams['font.sans-serif'] = ['SimHei']
plt.figure(figsize=(10,4))
ax1=plt.subplot(121)
# (1)先后绘制出 真实样本散点图 和 预测回归线
plt.scatter(x_test,y_test,label='测试集')
plt.plot(x_test,y_pred,'r',label='预测回归线')
ax1.set_xlabel('面积')
ax1.set_ylabel('价格')
plt.legend(loc='upper left')
# (2)先后绘制出 真实值 和 预测值 的分布折线图
ax2=plt.subplot(122)
x=range(0,len(y_test))
plt.plot(x,y_test,'g',label='真实值')
plt.plot(x,y_pred,'r',label='预测值')
ax2.set_xlabel('样本序号')
ax2.set_ylabel('价格')
plt.legend(loc='upper right')
plt.show()

误差:真实值-预测值(test-pred)
plt.plot(x_test,y_pred,‘r’,label=‘预测回归线’):由于是线性回归预测,所以虽然是画折线图,但最终的结果是以“直线”的形式呈现的。
upper left:左上
upper right:右上



执行结果:

在这里插入图片描述



六、总结:须要注意的地方 && 改进之处:(个人思考)

1.如何用其他的方法实现“标准化数据”???

2.如何使用其他的方法产生“训练集和测试集”???
比如:train_test_split(data, target, test_size=0.2, random_state=42)

3.为什么会有“model.coef_”这样以下划线结尾的属性???

4.可视化数据,可以看得懂,但是自己写就总是差点意思。
自己要去整理一套模版。



七、附录:完整代码

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
# 导入随机梯度下降回归模型函数
from  sklearn.linear_model import SGDRegressor

df=pd.read_csv('data\house.txt',sep=',',header=0)# 读取文件
plt.scatter(df['area'],df['price'],c='b')# 指定散点图的颜色为蓝色
plt.show()

# 1.数据的归一化处理:min-max标准化
df=(df-df.min())/(df.max()-df.min())

# 2.产生训练集和测试集
train_data=df.sample(frac=0.8,replace=False)# 训练集
test_data=df.drop(train_data.index)# 测试集
#转换数据:将数据转换为二维数组的形式:行自适应,1列
x_train=train_data['area'].values.reshape(-1, 1)
y_train=train_data['price'].values
x_test=test_data['area'].values.reshape(-1, 1)
y_test=test_data['price'].values

# 3.构建并训练模型
model=SGDRegressor(max_iter=500,learning_rate='constant',eta0=0.01)# 构建线性回归模型
model.fit(x_train,y_train)# 训练模型
# 输出训练结果:准确率得分 和 模型的自变量系数、截距
pre_score=model.score(x_train,y_train)
print('score=',pre_score)
print('coef=',model.coef_,'intercept=',model.intercept_)

# 1.计算均方误差
y_pred=model.predict(x_test)
print('测试集准确性得分=%.5f'%model.score(x_test,y_test))
#计算测试集的损失(用均方差)
MSE=np.mean((y_test - y_pred)**2)# 误差的平方的均值
print('损失MSE={:.5f}'.format(MSE))

# 2.绘制效果预测图
plt.rcParams['font.sans-serif'] = ['SimHei']
plt.figure(figsize=(10,4))
ax1=plt.subplot(121)
# (1)先后绘制出 真实样本散点图 和 预测回归线
plt.scatter(x_test,y_test,label='测试集')
plt.plot(x_test,y_pred,'r',label='预测回归线')
ax1.set_xlabel('面积')
ax1.set_ylabel('价格')
plt.legend(loc='upper left')
# (2)先后绘制出 真实值 和 预测值 的分布折线图
ax2=plt.subplot(122)
x=range(0,len(y_test))
plt.plot(x,y_test,'g',label='真实值')
plt.plot(x,y_pred,'r',label='预测值')
ax2.set_xlabel('样本序号')
ax2.set_ylabel('价格')
plt.legend(loc='upper right')
plt.show()

总结

提示:这里对文章进行总结:

💕💕💕

  • 34
    点赞
  • 30
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
以下是一个带有截距的随机梯度下降回归的 C++ 类实现以及一个简单的案例: ```cpp #include <iostream> #include <vector> #include <ctime> #include <cmath> using namespace std; class SGDRegressor { private: double alpha; // 学习率 int n_iter; // 迭代次数 double w0, w1; // 回归系数 public: SGDRegressor(double alpha = 0.01, int n_iter = 100) { this->alpha = alpha; this->n_iter = n_iter; srand(time(NULL)); w0 = (double)rand() / RAND_MAX; // 初始化 w0 w1 = (double)rand() / RAND_MAX; // 初始化 w1 } double predict(double x) { return w0 + w1 * x; } void fit(vector<double> X, vector<double> y) { int m = X.size(); for (int i = 0; i < n_iter; i++) { for (int j = 0; j < m; j++) { double y_pred = predict(X[j]); double error = y_pred - y[j]; w0 = w0 - alpha * error; w1 = w1 - alpha * error * X[j]; } } } }; int main() { vector<double> X = {1, 2, 3, 4, 5}; vector<double> y = {2, 4, 6, 8, 10}; SGDRegressor reg; reg.fit(X, y); double x_test = 6; double y_pred = reg.predict(x_test); cout << "预测结果:" << y_pred << endl; return 0; } ``` 这个例子中,我们使用 SGDRegressor 类来实现随机梯度下降回归。类的构造函数中定义了学习率 alpha 和迭代次数 n_iter,初始化了回归系数 w0 和 w1。predict() 方法用于根据输入的 x 值预测 y 值,fit() 方法用于拟合数据。 在案例中,我们使用了输入向量 X 和输出向量 y 来训练模型。我们使用 fit() 方法拟合数据,然后使用 predict() 方法预测 x_test 对应的 y 值。 这个例子中我们使用了一个非常简单的数据集,但是原理适用于更复杂的数据集。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

lennard-lhz

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值