pytorch实现二分类模型

使用的数据集是iris
一共150行数据,
三种花各有50行数据,
这里取了前100行,
选两种花进行二分类。

数据集地址:https://github.com/hydra-ZD/AI/blob/main/iris.data
在这里插入图片描述

import torch 
import numpy as np
import pandas as pd
import torch.nn as nn
import matplotlib.pyplot as plt
import torch.nn.functional as F
from torch.utils.data import Dataset
from torch.utils.data import DataLoader
from torch.utils.data import random_split
from torch.utils.data import TensorDataset

class dataset(Dataset):
    
    def __init__(self):
        data = pd.read_csv('c:/Users/Administrator/Desktop/iris/iris.data',names=['sepal_length','sepal_width','petal_length','petal_width','y'])
        data['new_y'] = data.iloc[:,[4]].replace(['Iris-setosa','Iris-versicolor','Iris-virginica'],[0,1,2])  
        self.X = torch.FloatTensor(np.array(data.iloc[:100,[0,1,2,3]]))
        self.y = torch.FloatTensor(np.array(data.iloc[:100,[5]]))
        self.len = len(self.X)
        
    def __getitem__(self,index):
        
        return self.X[index],self.y[index]
    
    def __len__(self):
        
        return self.len
    
class Model(nn.Module):
    
    def __init__(self):
        super(Model, self).__init__()
        self.linear = torch.nn.Linear(4, 1)
        self.sigmoid = torch.nn.Sigmoid()
    def forward(self, x):
        y_pred = self.sigmoid(self.linear(x))
        return y_pred
    

    
data = dataset()
# 随机分成训练集和测试集,训练集占70%
train_set, test_set = random_split(data, [int(data.len*0.7), data.len-int(data.len*0.7)])

# 加载训练集
train_loader = DataLoader(dataset=train_set,
                          batch_size=8,
                          shuffle=True,)
# 加载测试集
test_loader = DataLoader(dataset=test_set,
                          batch_size=8,
                          shuffle=True,)

model = Model()
# 使用BCE(Binary Cross Entropy)二元交叉熵损失函数
criterion = nn.BCELoss()
# 使用Adam优化算法
optimizer = torch.optim.Adam(model.parameters(), lr=0.01)
# 用于存放loss
loss_list = []

# 对整个样本训练10次
for epoch in range(10):
    # 每次训练一个minibatch
    for i, (X, y) in enumerate(train_loader):
        # 进行预测,也就是做了一次前向传播
        y_pred = model(X)
        # 计算损失
        loss = criterion(y_pred,y)
        # 梯度归0
        optimizer.zero_grad()
        # 反向传播
        loss.backward()
        # 更新梯度
        optimizer.step()
        # 记录损失
        loss_list.append(loss.data.item())

# 画出损失下降的图像
plt.plot(np.linspace(0,100,len(loss_list)),loss_list)
plt.show()
# 查看当前的训练参数,也就是w和b
print(model.state_dict())

# 使用测试集验证
for batch,(X, y) in enumerate(test_loader):
    
    for (XX,yy) in zip(X,y):
        
        # 进行预测,也就是做了一次前向传播
        y_pred = model(XX)
        y_pred = y_pred.data.item()

        if y_pred>=0.5:
            yy_pred = 1
        else:
            yy_pred = 0
        print("第%d个batch\t"%batch,XX,'\t',yy,'\t',y_pred,'\t',yy_pred,end='')
        if yy_pred == yy:
            print('\t预测正确')
        else:
            print('\t预测错误')

在这里插入图片描述

  • 12
    点赞
  • 91
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
要使用PyTorch实现softmax二分类,可以按照以下步骤进行操作: 1. 导入所需的库: ```python import torch import torch.nn as nn import torch.optim as optim ``` 2. 准备数据集,包括特征和标签。假设你已经有了训练集`train_features`和对应的标签`train_labels`。 3. 定义模型: ```python class SoftmaxClassifier(nn.Module): def __init__(self, input_size, num_classes): super(SoftmaxClassifier, self).__init__() self.linear = nn.Linear(input_size, num_classes) def forward(self, x): out = self.linear(x) return out ``` 这里使用了一个线性层`nn.Linear`作为模型的输出层。 4. 初始化模型并定义损失函数和优化器: ```python input_size = train_features.shape[1] # 特征的维度 num_classes = 2 # 二分类问题,输出类别数为2 model = SoftmaxClassifier(input_size, num_classes) criterion = nn.CrossEntropyLoss() # 使用交叉熵损失函数 optimizer = optim.SGD(model.parameters(), lr=0.01) # 使用随机梯度下降优化器 ``` 5. 进行模型训练: ```python num_epochs = 10 # 迭代次数 for epoch in range(num_epochs): # 前向传播 outputs = model(train_features) loss = criterion(outputs, train_labels) # 反向传播和优化 optimizer.zero_grad() loss.backward() optimizer.step() # 打印训练信息 if (epoch+1) % 1 == 0: print(f'Epoch [{epoch+1}/{num_epochs}], Loss: {loss.item():.4f}') ``` 在每个迭代周期中,模型进行前向传播计算损失,然后通过反向传播和优化器更新模型参数。 6. 使用模型进行预测: ```python # 假设你有测试集test_features with torch.no_grad(): outputs = model(test_features) _, predicted = torch.max(outputs.data, 1) # 输出预测结果 for i in range(len(test_features)): print(f'Test Sample {i+1}: Predicted={predicted[i]}, True={test_labels[i]}') ``` 这里使用了`torch.max`函数找到最大的类别概率,并将其作为预测结果。 这就是使用PyTorch实现softmax二分类的基本步骤。可以根据实际问题进行适当的修改和调整。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值