这里的文件路径需要换成自己的,其余的超参数可以自己调,具体代码如下所示
import numpy as np
import pandas as pd
from torch.utils.data import Dataset, DataLoader
import torch
import torch.optim as optim
# 数据处理
# 1、处理数据及加载数据集
def labelsid(labels): # 将类别标签转换成id表示,方便后面计算交叉熵
target_id = []
target_labels = ['Class_1', 'Class_2', 'Class_3', 'Class_4', 'Class_5', 'Class_6', 'Class_7', 'Class_8', 'Class_9']
for label in labels:
target_id.append(target_labels.index(label))
return target_id
class My_dataset(Dataset):
def __init__(self, filepath):
data = pd.read_csv(filepath)
labels = data['target']
self.len = data.shape[0]
self.x_data = torch.tensor(
np.array(data)[:, 1:-1].astype(float)) # astype是强制格式转换,[:,1:-1]表示将列表中最后一列和第一类进行删除,保存特征数
self.y_data = labelsid(labels)
def __getitem__(self, index):
return self.x_data[index], self.y_data[index]
def __len__(self):
return self.len
# 2、数据实例化
dataset = My_dataset(r"C:\Users\28493\Downloads\train.csv.zip")
# 3、设计数据集加载器
train_loader = DataLoader(dataset=dataset, batch_size=64, shuffle=True, num_workers=0)
# 模型定义设计
class Model(torch.nn.Module):
def __init__(self):
super(Model, self).__init__()
self.linear1 = torch.nn.Linear(93, 64)
self.linear2 = torch.nn.Linear(64, 32)
self.linear3 = torch.nn.Linear(32, 16)
self.linear4 = torch.nn.Linear(16, 9)
self.relu = torch.nn.ReLU()
def forward(self, x):
x = self.relu(self.linear1(x))
x = self.relu(self.linear2(x))
x = self.relu(self.linear3(x))
x = self.linear4(x) # 最后一层不用激活函数激活,因为这一部分直接包括在交叉熵函数里了
return x
def predict(self, x): # 这个函数主要应用于前向过程,并不包括反向传播
with torch.no_grad():
x = self.relu(self.linear1(x))
x = self.relu(self.linear2(x))
x = self.relu(self.linear3(x))
x = self.relu(self.linear4(x))
_, predicted = torch.max(x, dim=1) # 返回x这个数据中1维数据(行数据)的索引值及最大值,‘_’代表索引值的位置
y = pd.get_dummies(predicted)
return y
# 实例化模型,并建立评价函数和优化器
model = Model()
criterion = torch.nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.5)
# 开始训练,(前向,反向和更新)
if __name__ == '__main__':
for epoch in range(100):
loss = 0.0
for batch_idx, data in enumerate(train_loader):
inputs, target = data
inputs = inputs.float()
optimizer.zero_grad()
outputs = model(inputs)
loss = criterion(outputs, target)
loss.backward()
optimizer.step()
loss += loss.item()
if batch_idx % 300 == 299: # 如果迭代次数除以300的余数等于299,每300轮输出一次,从0开始计数,299是第300个数
# 输出[%d代表是一位整数,%5d代表是5位,位数不够用空格填充],损失用小数点后三位浮点型表示。
# %用于格式化输出的连接符号,总的循环次数+1,batch的循环次数+1,损失除以300轮,求一次损失
print('[%d, %5d] loss: %.3f' % (epoch + 1, batch_idx + 1, loss / 300))
loss = 0.0 # 每300次就将损失归一次0
# 进行测试
test_data = pd.read_csv(r"C:\Users\28493\Downloads\test.csv.zip")
test_inputs = torch.tensor(np.array(test_data)[:, 1:].astype(float)) # 将测试集数据中的第一列索引值删除,并将数字格式强制转换成浮点型
test_outputs = model.predict(test_inputs.float())
# 为测试集增加列标签
labels = ['Class_1', 'Class_2', 'Class_3', 'Class_4', 'Class_5', 'Class_6', 'Class_7', 'Class_8', 'Class_9']
test_outputs.columns = labels # 为测试集的预测输出增加列标签,即为预测结果设置预测结果标签
test_outputs.insert(0, 'id', test_data['id']) # .insect(0,'id')表示在索引值为0的这一列加入‘id’
out = pd.DataFrame(test_outputs)
out.to_csv(r"C:\Users\28493\OneDrive\桌面\预测.csv", index=False) # 不保存索引