使用pytorch搭建MLP多层感知器分类网络判断LOL比赛胜负

使用pytorch搭建MLP多层感知器分类网络判断LOL比赛胜负

1. 数据集

百度网盘链接,提取码:q79p
数据集文件格式为CSV。数据集包含了大约5万场英雄联盟钻石排位赛前15分钟的数据集合,总共48651条数据,该数据集的每条数据共有18个属性,除去比赛ID属性,每条数据总共有17项有效属性,其中blue_win是数据集的标签为蓝方的输赢,其余16项属性可作为模型训练的输入属性。在这里插入图片描述

2. 分析

预测英雄联盟比赛的输赢可以理解为根据比赛信息对比赛进行分类的问题,机器学习中有很多的分类算法都可以应用到此问题之中,例如支持向量机算法、朴素贝叶斯算法、决策树算法、神经网络模型(多层感知机)等。

3. 使用pytorch进行编码实现

以下代码中首行为该脚本文件的文件名。四个文件设置好文件名并放置好数据集即可运行。

文件组织方式如下:
在这里插入图片描述

数据集加载

编写自定义的数据加载类,该类继承Dataset。
在加载数据集时对数据集进行标准化处理,之后将数据集随机按照60%训练集,10%验证集,20%测试集的比例进行划分。

#MyDataSet.py
import torch
import random, csv
import numpy as np
from torch.utils.data import Dataset
from sklearn import preprocessing


class MyDataSet(Dataset):
    """
    MyDataSet类继承自torch中的DataSet实现对数据集的读取
    """
    def __init__(self, root, mode):
        """
        :param root: 数据集的路径
        :param mode: train,val,test
        """
        super(MyDataSet, self).__init__()

        self.mode = mode   # 设置读取读取数据集的模式
        self.root = root   # 数据集存放的路径
        label = []
        with open(root, 'r') as f:    # 从csv中读取数据
            reader = csv.reader(f)
            result = list(reader)
            del result[0]             # 删除表头
            random.shuffle(result)
            for i in range(len(result)):
                del result[i][0]
                del result[i][0]
                label.append(int(result[i][0]))
                del result[i][0]
        result = np.array(result, dtype=np.float)
        # result = preprocessing.scale(result).tolist()
        result = preprocessing.StandardScaler().fit_transform(result).tolist()  # 对数据进行预处理

        # result = preprocessing.MinMaxScaler().fit_transform(result).tolist()
        assert len(result) == len(label)
        self.labels = label
        self.datas = result

        if mode == 'train':  # 划分训练集为60%
            self.datas = self.datas[:int(0.6 * len(self.datas))]
            self.labels = self.labels[:int(0.6 * len(self.labels))]
        elif mode == 'val':   # 划分验证集为20%
            self.datas = self.datas[int(0.6 * len(self.datas)):int(0.8 * len(self.datas))]
            self.labels = self.labels[int(0.6 * len(self.labels)):int(0.8 * len(self.labels))]
        else:                  # 划分测试集为20%
            self.datas = self.datas[int(0.8 * len(self.datas)):]
            self.labels = self.labels[int(0.8 * len(self.labels)):]

    def __len__(self):
        return len(self.datas)

    def __getitem__(self, idx):
        # idx~[0~len(data)]
        data, label = self.datas[idx], self.labels[idx]
        data = torch.tensor(data)
        label = torch.tensor(label)
        return data, label


def main():
    file_path = "dataset/League of Legends.csv"
    db = MyDataSet(file_path, 'train')
    x,y = next(iter(db))
    print(x.shape)
    print(y.shape)


if __name__ == '__main__':
    main()

多层感知器网络构建(基本上是组件化构建,很简单)

多层感知机总共包括四层,层数参数为(16,214,214,2),其中16为输入的每条比赛的属性个数,2为输出的类别,另外为了防止过拟合在感知机中加入了dropout层。

#MLP.py
import torch.nn as nn
import torch.nn.functional as F
import torch


class MLP(nn.Module):
    def __init__(self, input_num, output_num):
        """
        :param input_num: 输出的节点数
        :param output_num: 输出的节点数
        """
        super(MLP, self).__init__()
        hidden1 = 214   # 第二层节点数
        hidden2 = 214   # 第三层节点数
        self.fc1 = nn.Linear(input_num, hidden1)
        self.fc2 = nn.Linear(hidden1, hidden2)
        self.fc3 = nn.Linear(hidden2, output_num)
        # 使用dropout防止过拟合
        self.dropout = nn.Dropout(0.2)

    def forward(self, x):
        out = torch.relu(self.fc1(x))
        out = self.dropout(out)
        out = torch.relu(self.fc2(out))
        out = self.dropout(out)
        out = self.fc3(out)
        return out
训练

训练时的epoch数为560,优化器使用Adam,初始学习率设置为0.001。
训练隔5个epoch输出训练模型在验证集上的准确率、混淆矩阵、F1-score
并利用visdom对训练loss、以及验证集loss进行了可视化。
可以使用命令 python -m visdom.server启动visdom,并在浏览器中输入url
http://localhost:8097/查看。

# train_mlp.py
import torch
from torch import optim, nn
from torch.utils.data import DataLoader
from sklearn.metrics import accuracy_score, confusion_matrix, classification_report
from MyDataSet import MyDataSet
from MLP import MLP
import visdom
from tools import plot_confusion_matrix
import sklearn.metrics as m

batchsz = 32
lr = 1e-3  # 学习率
epoches = 560
torch.manual_seed(1234)
file_path = "dataset/League of Legends.csv"

# 读取数据
train_db = MyDataSet(file_path, mode='train')
val_db = MyDataSet(file_path, mode='val')
test_db = MyDataSet(file_path, mode='test')

train_loader = DataLoader(train_db, batch_size=batchsz, shuffle=True)
val_loader = DataLoader(val_db, batch_size=batchsz)
test_loader = DataLoader(test_db, batch_size=batchsz)
viz = visdom.Visdom()


# 计算正确率
def evaluate(model, loader):
    """
    :param model: 网络模型
    :param loader: 数据集
    :return: 正确率
    """
    correct = 0
    total = len(loader.dataset)
    for x, y in loader:
        with torch.no_grad():
            logits = model(x)
            pred = logits.argmax(dim=1)
        correct += torch.eq(pred, y).sum().float().item()
    return correct / total


# 计算分类的各种指标
def test_evaluate(model, loader):
    """
       :param model: 网络模型
       :param loader: 数据集
       :return: 正确率
    """
    y_true = []
    predict = []
    for x, y in loader:
        with torch.no_grad():
            logits = model(x)
            result = logits.argmax(dim=1)
            for i in y.numpy():
                y_true.append(i)
            for j in result.numpy():
                predict.append(j)

    print(classification_report(y_true, predict))
    plot_confusion_matrix(confusion_matrix(y_true, predict), classes=range(2), title='confusion matrix')
    print("混淆矩阵")
    print(confusion_matrix(y_true, predict))
    print("f1-score:{}.".format(m.f1_score(y_true, predict)))
    return accuracy_score(y_true, predict)


def main():
    model = MLP(16, 2)  # 初始化模型
    optimizer = optim.Adam(model.parameters(), lr=lr)  # 设置Adam优化器
    criterion = nn.CrossEntropyLoss()    # 设置损失函数

    best_epoch, best_acc = 0, 0
    viz.line([0], [-1], win='loss', opts=dict(title='loss'))   # visdom画loss图
    viz.line([0], [-1], win='val_acc', opts=dict(title='val_acc'))  # visdom画val_acc图

    for epoch in range(epoches):
        for step, (x, y) in enumerate(train_loader):
            # x:[b,16] ,y[b]
            logits = model(x)
            loss = criterion(logits, y)
            optimizer.zero_grad()
            loss.backward()
            optimizer.step()

        viz.line([loss.item()], [epoch], win='loss', update='append')

        if epoch % 5 == 0:

            val_acc = evaluate(model, val_loader)
            # train_acc = evaluate(model,train_loader)
            print("epoch:[{}/{}]. val_acc:{}.".format(epoch, epoches, val_acc))

            # print("train_acc", train_acc)
            viz.line([val_acc], [epoch], win='val_acc', update='append')
            if val_acc > best_acc:
                best_epoch = epoch
                best_acc = val_acc

                torch.save(model.state_dict(), 'best.mdl')

    print('best acc:{}. best epoch:{}.'.format(best_acc, best_epoch))
    model.load_state_dict(torch.load('best.mdl'))
    print("loaded from ckpt!")

    test_acc = test_evaluate(model, test_loader)
    print("test_acc:{}".format(test_acc))


if __name__ == '__main__':
    main()

工具类:实现绘制混淆矩阵的功能
# tools.py
import matplotlib.pyplot as plt
import numpy as np


def plot_confusion_matrix(cm, classes,
                          normalize=False,
                          title=None,
                          cmap=plt.cm.Blues):
    """
    This function prints and plots the confusion matrix.
    Normalization can be applied by setting `normalize=True`.
    """
    if not title:
        if normalize:
            title = 'Normalized confusion matrix'
        else:
            title = 'Confusion matrix, without normalization'

    # Compute confusion matrix

    # Only use the labels that appear in the data
    #     classes = classes[unique_labels(y_true, y_pred)]
    if normalize:
        cm = cm.astype('float') / cm.sum(axis=1)[:, np.newaxis]
        print("Normalized confusion matrix")
    else:
        pass
        # print('Confusion matrix, without normalization')

    # print(cm)

    fig, ax = plt.subplots()
    im = ax.imshow(cm, interpolation='nearest', cmap=cmap)
    ax.figure.colorbar(im, ax=ax)
    # We want to show all ticks...
    ax.set(xticks=np.arange(cm.shape[1]),
           yticks=np.arange(cm.shape[0]),
           # ... and label them with the respective list entries
           xticklabels=classes, yticklabels=classes,
           title=title,
           ylabel='True label',
           xlabel='Predicted label')

    # Rotate the tick labels and set their alignment.
    plt.setp(ax.get_xticklabels(), rotation=45, ha="right",
             rotation_mode="anchor")

    # Loop over data dimensions and create text annotations.
    fmt = '.2f' if normalize else 'd'
    thresh = cm.max() / 2.
    for i in range(cm.shape[0]):
        for j in range(cm.shape[1]):
            ax.text(j, i, format(cm[i, j], fmt),
                    ha="center", va="center",
                    color="white" if cm[i, j] > thresh else "black")
    fig.tight_layout()
    plt.show()
    return ax
4.实验结果

训练过程中保存在验证集上表现最好的模型,利用最终训练好的模型对测试数据集进行分类,得到测试指标,如图所示,可以看到最终训练得到的模型在测试集上的准确率为83.37%,f1-score为0.8370,各个类别的精确率在图中也有展示。另外还绘制出了实验的混淆矩阵图。
在这里插入图片描述
在这里插入图片描述

对于多分类任务可在此代码上做简单修改完成多分类任务。
完整的项目地址:github链接 https://github.com/Wind-feng/classification.git
(该项目中利用sklearn包实现了简单的SVM、高斯贝叶斯、多项式贝叶斯算法与MLP进行对比,详细介绍可以参考项目中的readme.md文件。)

PyTorch是一个流行的深度学习框架,可以用于构建各种类型的神经网络,包括多层感知机MLP)。 MLP是一种传统的前馈神经网络,由多个全连接层组成。在PyTorch中,我们可以使用torch.nn模块来搭建MLP网络。以下是使用PyTorch构建MLP网络的步骤: 1. 导入所需的PyTorch模块 首先,我们需要导入torch.nn模块以及其他所需的模块,如torch和torchvision: ``` import torch import torch.nn as nn import torchvision ``` 2. 定义MLP网络结构 我们可以通过创建一个继承自nn.Module的类来定义MLP网络的结构。在这个类中,我们将定义MLP网络的各个层和它们之间的连接方式。以下是一个简单的例子: ``` class MLP(nn.Module): def __init__(self, input_size, hidden_size, num_classes): super(MLP, self).__init__() self.fc1 = nn.Linear(input_size, hidden_size) self.relu = nn.ReLU() self.fc2 = nn.Linear(hidden_size, num_classes) def forward(self, x): out = self.fc1(x) out = self.relu(out) out = self.fc2(out) return out ``` 在这个例子中,我们定义了一个包含两个全连接层和一个ReLU激活函数的MLP网络。输入大小为input_size,隐藏层大小为hidden_size,输出类别数为num_classes。 3. 初始化网络和损失函数 在开始训练之前,我们需要实例化我们定义的MLP网络和定义一个损失函数。以下是一个例子: ``` input_size = 784 # 输入大小为28x28=784 hidden_size = 500 # 隐藏层大小为500 num_classes = 10 # 输出类别数为10 model = MLP(input_size, hidden_size, num_classes) criterion = nn.CrossEntropyLoss() ``` 在这个例子中,我们实例化了一个MLP对象作为我们的模型,并选择交叉熵损失函数作为我们的损失函数。 4. 训练和测试网络 接下来,我们可以使用我们的MLP网络对数据进行训练和测试。这包括数据加载、优化器选择和循环训练的步骤,这里不再赘述。 总结: PyTorch提供了一种灵活而强大的方式来构建MLP网络。通过定义一个继承自nn.Module的类,并在其中定义网络结构和前向传播函数,我们可以很容易地构建深度学习模型并在PyTorch中进行训练和测试。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

山风wind

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值