深度学习+pytorch实战Kaggle比赛(一)——房价预测

参考书籍《动手学深度学习(pytorch版),参考网址为:
https://zh-v2.d2l.ai/chapter_multilayer-perceptrons/kaggle-house-price.html

https://tangshusen.me/Dive-into-DL-PyTorch/#/chapter03_DL-basics/3.16_kaggle-house-price

请大家也多多支持这两个很好用的平台~

一、比赛数据描述

比赛数据分为训练数据集和测试数据集(比赛网址)。两个数据集都包括每栋房子的特征,如街道类型、建造年份、房顶类型、地下室状况等特征值。这些特征值有连续的数字、离散的标签甚至是缺失值“na”。只有训练数据集包括了每栋房子的价格,也就是标签。

在这里插入图片描述
有时候你会发现一组参数的训练误差可以达到很低,但是在K折交叉验证上的误差可能反而较高。这种现象很可能是由过拟合造成的。因此,当训练误差降低时,我们要观察K折交叉验证上的误差是否也相应降低。

设计好模型并调好超参数之后,下一步就是对测试数据集上的房屋样本做价格预测。如果我们得到与交叉验证时差不多的训练误差,那么这个结果很可能是理想的,可以在Kaggle上提交结果。

二、程序部分

代码

import torch
import myutils
import torch.nn as nn
import pandas as pd

print(torch.__version__)   #查看pytorch的版本
torch.set_default_tensor_type(torch.FloatTensor)  # 设置pytorch中默认的浮点类型为32bit浮点


#获取和读取数据集
train_data = pd.read_csv(r'D:\PyCharm files\deep learning\项目实战\Kaggle房价预测\data\train.csv')
test_data = pd.read_csv(r'D:\PyCharm files\deep learning\项目实战\Kaggle房价预测\data\test.csv')
print(train_data.shape) # 输出 (1460, 81),训练数据集包括1460个样本、80个特征和1个标签
print(test_data.shape) # 输出 (1459, 80),测试数据集包括1459个样本、80个特征
print(train_data.iloc[0:4, [0, 1, 2, 3, -3, -2, -1]]) # 查看前4个样本的前4个特征、后2个特征和标签(SalePrice)
# 第一个特征是Id,它能帮助模型记住每个训练样本,但难以推广到测试样本,所以不使用它来训练。我们将所有的训练数据和测试数据的79个特征按样本连结。
all_features = pd.concat((train_data.iloc[:, 1:-1], test_data.iloc[:, 1:]))
print(all_features.shape)  # 输出 (2919, 79)


#预处理数据
'''
对连续数值的特征做标准化(standardization):设该特征在整个数据集上的均值为μ,标准差为σ。
那么,我们可以将该特征的每个值先减去μ再除以σ得到标准化后的每个特征值;对于缺失的特征值,我们将其替换成该特征的均值
'''
numeric_features = all_features.dtypes[all_features.dtypes != 'object'].index  #找出所有非字符串,即数值类的特征列,共36个(非object类)存储的是特征,如MSSubClass
all_features[numeric_features] = all_features[numeric_features].apply(
    lambda x: (x - x.mean()) / (x.std()))
# 标准化后,每个数值特征的均值变为0,所以可以直接用0来替换缺失值
all_features[numeric_features] = all_features[numeric_features].fillna(0) # fillna()会填充nan数据,并返回填充后的结果

# 接下来将离散数值转成指示特征
'''
举个例子,假设特征MSZoning里面有两个不同的离散值RL和RM,那么这一步转换将去掉MSZoning特征,并新加两个特征MSZoning_RL和MSZoning_RM,其值为0或1
如果一个样本原来在MSZoning里的值为RL,那么有MSZoning_RL=1且MSZoning_RM=0。
'''
# dummy_na=True将缺失值也当作合法的特征值并为其创建指示特征
all_features = pd.get_dummies(all_features, dummy_na=True)
print(all_features.shape) # (2919, 331) ,将特征数从79增加到了331
print(all_features.iloc[0:2, -4:-1]) # 可以看到SaleCondition被分成了SaleCondition_Family  SaleCondition_Normal  SaleCondition_Partial等

#通过values属性得到NumPy格式的数据,并转成Tensor方便后面的训练
n_train = train_data.shape[0]
train_features = torch.tensor(all_features[:n_train].values, dtype=torch.float)
test_features = torch.tensor(all_features[n_train:].values, dtype=torch.float)
train_labels = torch.tensor(train_data.SalePrice.values, dtype=torch.float).view(-1, 1) # 取出SalePrice的数据,并转化成1460×1的向量


# 训练模型
loss = torch.nn.MSELoss()
# 线性回归模型和平方损失函数
def get_net(feature_num):
    net = nn.Linear(feature_num, 1)
    for param in net.parameters():
        nn.init.normal_(param, mean=0, std=0.01)
    return net

#对数均方根误差
def log_rmse(net, features, labels):
    with torch.no_grad(): # 不记录梯度
        # 将小于1的值设成1,使得取对数时数值更稳定
        clipped_preds = torch.max(net(features), torch.tensor(1.0))
        rmse = torch.sqrt(loss(clipped_preds.log(), labels.log())) # pytorch里的MSELoss并没有除以 2
    return rmse.item()

#使用了Adam优化算法
def train(net, train_features, train_labels, test_features, test_labels,
          num_epochs, learning_rate, weight_decay, batch_size):
    train_ls, test_ls = [], []
    dataset = torch.utils.data.TensorDataset(train_features, train_labels)
    train_iter = torch.utils.data.DataLoader(dataset, batch_size, shuffle=True)
    # 这里使用了Adam优化算法
    optimizer = torch.optim.Adam(params=net.parameters(), lr=learning_rate, weight_decay=weight_decay)
    net = net.float()
    for epoch in range(num_epochs):
        for X, y in train_iter:
            l = loss(net(X.float()), y.float())
            optimizer.zero_grad()
            l.backward()
            optimizer.step()
        train_ls.append(log_rmse(net, train_features, train_labels))
        if test_labels is not None:
            test_ls.append(log_rmse(net, test_features, test_labels))
    return train_ls, test_ls


# K折交叉验证
def get_k_fold_data(k, i, X, y):
    # 返回第i折交叉验证时所需要的训练和验证数据
    assert k > 1   # k>1才执行的下去
    fold_size = X.shape[0] // k
    X_train, y_train = None, None
    # 这个循环实现了取出一折用来做验证集,剩下的部分全部做训练集
    for j in range(k):
        idx = slice(j * fold_size, (j + 1) * fold_size)  # 返回一个切片对象,用来索引
        X_part, y_part = X[idx, :], y[idx]
        if j == i: # j == i 保证了每次取出来的验证集都是不一样的
            X_valid, y_valid = X_part, y_part  # valid 验证集
        elif X_train is None:
            X_train, y_train = X_part, y_part  # 先给训练集做个开头
        else:   # 拼接剩下所有的训练集
            X_train = torch.cat((X_train, X_part), dim=0) # 在给定维度上对输入的张量序列seq 进行连接操作,dim=0表示上下连接
            y_train = torch.cat((y_train, y_part), dim=0)
    return X_train, y_train, X_valid, y_valid

# 在K折交叉验证中训练K次并返回训练和验证的平均误差
'''
每一次,我们使用一个子数据集验证模型,并使用其他K−1个子数据集来训练模型。
在这K次训练和验证中,每次用来验证模型的子数据集都不同。最后,我们对这K次训练误差和验证误差分别求平均。
'''
def k_fold(k, X_train, y_train, num_epochs,
           learning_rate, weight_decay, batch_size):
    train_l_sum, valid_l_sum = 0, 0
    for i in range(k):
        data = get_k_fold_data(k, i, X_train, y_train) # 返回的是元组类型
        net = get_net(X_train.shape[1]) # X_train.shape[1]返回特征的个数
        train_ls, valid_ls = train(net, *data, num_epochs, learning_rate,
                                   weight_decay, batch_size)  # *data可选参数,其实有四个变量
        train_l_sum += train_ls[-1]  # 返回最后一次训练周期的loss
        valid_l_sum += valid_ls[-1]
        if i == 0:
            myutils.semilogy(range(1, num_epochs + 1), train_ls, 'epochs', 'rmse',   # rmse均方根误差
                         range(1, num_epochs + 1), valid_ls,
                         ['train', 'valid'])
        print('fold %d, train rmse %f, valid rmse %f' % (i, train_ls[-1], valid_ls[-1])) # %d 有符号的十进制整数; %f 浮点实数
    return train_l_sum / k, valid_l_sum / k

k, num_epochs, lr, weight_decay, batch_size = 5, 100, 5, 0, 64
train_l, valid_l = k_fold(k, train_features, train_labels, num_epochs, lr, weight_decay, batch_size)
print('%d-fold validation: avg train rmse %f, avg valid rmse %f' % (k, train_l, valid_l))  # validation验证


# 预测并在Kaggle提交结果
def train_and_pred(train_features, test_features, train_labels, test_data,
                   num_epochs, lr, weight_decay, batch_size):
    net = get_net(train_features.shape[1])
    train_ls, _ = train(net, train_features, train_labels, None, None,
                        num_epochs, lr, weight_decay, batch_size)
    myutils.semilogy(range(1, num_epochs + 1), train_ls, 'epochs', 'rmse')
    print('train rmse %f' % train_ls[-1])
    preds = net(test_features).detach().numpy()   # detach()不被继续追踪,preds的shape是(1459,1)
    test_data['SalePrice'] = pd.Series(preds.reshape(1, -1)[0]) # Series是一维数组;转成(1,1459)是[[]]样式,所以需取[0]
    submission = pd.concat([test_data['Id'], test_data['SalePrice']], axis=1)  # axis=1是左右拼接
    submission.to_csv(r'D:\PyCharm files\deep learning\项目实战\Kaggle房价预测\data\submission.csv', index=False)  # index=False表示不保存行索引

train_and_pred(train_features, test_features, train_labels, test_data, num_epochs, lr, weight_decay, batch_size)

输出

1.9.0
(1460, 81)
(1459, 80)
   Id  MSSubClass MSZoning  LotFrontage SaleType SaleCondition  SalePrice
0   1          60       RL         65.0       WD        Normal     208500
1   2          20       RL         80.0       WD        Normal     181500
2   3          60       RL         68.0       WD        Normal     223500
3   4          70       RL         60.0       WD       Abnorml     140000
(2919, 79)
(2919, 331)
   SaleCondition_Family  SaleCondition_Normal  SaleCondition_Partial
0                     0                     1                      0
1                     0                     1                      0
fold 0, train rmse 0.170354, valid rmse 0.156934
fold 1, train rmse 0.162575, valid rmse 0.187708
fold 2, train rmse 0.163997, valid rmse 0.168599
fold 3, train rmse 0.168029, valid rmse 0.155094
fold 4, train rmse 0.163075, valid rmse 0.182513
5-fold validation: avg train rmse 0.165606, avg valid rmse 0.170170
train rmse 0.162682

在这里插入图片描述
在这里插入图片描述

三、相关函数资料

iloc函数

iloc函数主要通过行号索引行数据(不同于loc是通过行标签索引的)

而且,iloc函数索引的数据是int整型,因此是Python默认的前闭后开。注意只能说int型,也就是数字,输入字符的话是会报错的。

用法参考链接:https://zhuanlan.zhihu.com/p/111123163?from_voters_page=true

pd.concat()函数

pd.concat()函数可以沿着指定的轴将多个dataframe或者series拼接到一起,默认上下拼接。

用法参考链接:https://zhuanlan.zhihu.com/p/132593960

all_features.dtypes != 'object’的解释

如果一列中含有多个类型,则该列的类型会是object,同样字符串类型的列也会被当成object类型.
不同的数据类型也会被当成object,比如int32,float32

参考链接:https://blog.csdn.net/claroja/article/details/72622375

pd.get_dummies()

用法参考链接:https://blog.csdn.net/maymay_/article/details/80198468

四、程序及本项目数据文件

链接:https://pan.baidu.com/s/1v4NX9ajYSxqu62xGbf9TgA
提取码:5i42
–来自百度网盘超级会员V5的分享

  • 7
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值