python线性回归预测房价不用sk-learn_Python AI极简入门:4、使用回归模型预测房价...

本文介绍了如何使用Python进行回归预测,以波士顿房价数据集为例,不依赖sklearn库。首先展示了如何加载和理解数据,接着分割数据集为训练集和测试集,然后选择随机森林回归算法进行模型训练和预测,最后通过平均绝对误差、均方差和R2分数评估模型表现。
摘要由CSDN通过智能技术生成

一、回归预测

在前面的文章中我们介绍了机器学习主要解决分类、回归和聚类三大问题。今天我们来具体了解一下使用机器学习算法进行回归预测。

回归预测主要用于预测与对象关联的连续值属性,得到数值型的预测数据。回归预测的应用场景有各类的价格预测、相关性的反应预测等。

下面,我们就使用sklearn模块,以一个sklearn中集成的波士顿房价数据集来演示如何进行回归预测。

二、波士顿房价预测

1、引入数据集

在sklearn中内置的数据集都位于datasets子模块下,我们可以直接进行导入:

ead9b7c39e968e0e3859190c504384da.png

导入之后,看看数据集中的内容:

9244bd6711de0c1577ea32db94ec1d52.png

其中有五个键,从字面意思上理解,可以发现data是数据集中所有的数据特征,DESCR是数据集的描述信息,target是数据集特征对应的目标值,feature_name则是数据特征的名称。

我们先来看看数据特征的名称:

c3eca8500419e5e4f610778fd64e0a91.png

可以发现数据集中有13个特征,每个特征具体是什么意思,倒不清楚,我们可以在DESCR描述中找到具体意思:

dc049ae49a3abf91a748ae49f6c7fa73.png

最后可以知道每个数据特征的含义如下:

CRIM:人均犯罪率 ;

ZN:住宅用地超过两万五千平方英尺的比例 ;

INDUS:城镇的非零售营业比例;

CHAS:河流分界;

NOX:一氧化氮浓度 ;

RM:住宅平均房间数;

AGE:1940年之前建造的房屋业主比例;

DIS:距离波士顿五个就业中心的加权距离;

RAD:径向公路的可达指数;

TAX :每一万美元财产的全额财产税率

PTRATIO :城乡教师比例;

B :黑人比例

LSTAT :低层人群比例

MEDV :房屋价格中值

再来看看具体的数据特征和目标数据值:

数据特征形状:

07ffc07d218ba01eb608f9ef957cfc9a.png

数据特征概览:

c458fe0632b10d6cb017afa25053547e.png

数据特征一共有506行,13列,正好对应13个数据特征。而目标数据值的也正好是506个:

920ec6c0b47147b63c39ef693ced6492.png

相当于是已经处理好的数据了。

但是对于初学者来说,这样处理好的数据看起来不是太直观,我们使用Pandas将其还原为DataFrame的形式,可以直观地看出这个数据集到底是什么样的:

c65a3d0cebf6dd803768787aa22f09a9.png

对于熟悉使用pandas的同学来说,这样看这个数据集是不是亲切多了。

好了,我们可以直接进行下一步。

2、分割训练数据和测试数据

为了检验我们创建和训练好的机器学习模型的效果,将数据集分割为训练集和测试集是必须的。

而在sklearn中,也有一个专门的接口方法用于分割数据集的训练集和测试集——train_test_split,我们首先导入它:

a697427cd213bef039a0fe3eb24f7427.png

然后将我们的数据集data传入,并设置测试集的比例为15%:

d96cb43b48f5e95aec3c8549c4e3b658.png

3、选择一个回归算法估计器

在sklearn中,所有的机器学习算法都以“估计器”的形式来呈现,每一个估计器都是一个类,机器学习模型通过实例化一个估计器的类来进行创建。比如线性回归的算法估计器:

0a9ef62b461d61487a49ab264d11c4c7.png

每一个算法估计器,无论是监督学习算法还是非监督学习算法,都拥有一个fit()方法,用于接收训练数据集来训练数据,比如这样:

bc1991ed5f34b99659752ecfd59fb103.png

同时每一个算法估计器都有用一个predict()方法,用于接收数据来进行预测,比如这样:

c35e0b562a6d339877072eca1ab6d7bc.png

在sklearn中,各类机器学习算法的API设计根据不同的用途的算法进行划分,我们可以方便地调用自己想要的算法,每一个监督学习算法,都由一个单独的子模块构成,其下包含算法的具体类,比如广义的线性回归算法:

0364befddf09cafca26b89da423b5eaa.png

其中根据用途,有的算法 可细分为用于回归的估计器和用于分类的估计器。

在此,我们选择随机森林算法的用于回归的估计器:

78d57c5333b72a1c7bdd568e714e8683.png

首先,导入算法估计器:

0a9b5a3363ee2809496582a97ce2b224.png

接着,实例化随机森林回归估计器,设置算法的参数并将训练集传入进行训练:

0513b20f97715c5940bf0a9078ead2d3.png

训练好模型之后,再使用predict()方法对训练集进行预测:

2f81c03dbefb4a6bb2c191c04e30262b.png

这样,我们就获得了使用随机森林回归模型对测试集进行预测的数据了,其为一个一维数组,我们可以直接打印出来看到:

bfc808edb6e4e66e827e7f7a209b4c4c.png

还记得我们分割训练测试集的时候,有过一个y_test的数组吧?它是测试集x_test数据特征对应正确的房价结果,我们也来看看其数据:

1c048d9c88923372d0049fab7a5aeacd.png

如何比较正确数组和预测出来的数组的值的正确度呢?一个比较蠢的方法是通过遍历这两个数组进行对比,查看其差值:

2477bc78cf5d9e7abbe734efd34b2b01.png

如果测试数据集少的话,这样来比较似乎工作量还不大,要是测试集很大那就没办法了。幸而,sklearn中也提供了对模型的评估方法,所有的评估方法都集成在sklearn.metrics子模块中。针对回归模型,我们可以使用平均绝对误差MAE和均方差MSE以及R2分数来对回归模型评估:

e485ea9d87ff77f627a134ad28d342ac.png

然后在评估方法中传入预测数组和正确数组:

f97e5051fafa6bdf36ebf6877393a96e.png

最终得到了我们的平均绝对误差值、均方差值和R2分数。其中,R2分数理论最佳值为1,平均绝对误差理论最佳值为0.0,均方差理论最佳值也为0.0,嗯,这个机器学习随机森林回归模型的效果如何?大家自己评估,也可以自己调用其他的回归模型来测试,看看哪个算法对这个数据集的预测效果较好。

下一篇,我们将创建一个用于分类的预测模型。

分享到:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值