PyTorch框架的深度学习模型训练图像分类任务


import torch
import torch.nn as nn
import torch.nn.functional as F
from torchvision import transforms
from torchvision.datasets import ImageFolder
from torch.utils.data import DataLoader
import torch.optim as optim
from torch.optim import lr_scheduler
import torchvision.models as models
#1. 导入所需的库,如torch, torchvision等库,它们是Pytorch框架中的基本库,可以用来搭建神经网络,进行数据预处理等工作。 

# 定义网络
class Network(nn.Module):
#2. 定义一个 Network 类,继承自 nn.Module ,是自定义神经网络的基本结构。
    def __init__(self):
        super(Network, self).__init__()
#3. 在 Network 类中,初始化方法 __init__ 中,首先通过 super(Network, self).__init__() 调用父类的初始化方法。然后加载预训练的ResNet18模型。将预训练模型的参数设置为不可更新,以便在训练过程中保持不变。接着,修改模型的最后一层全连接层,将其输出特征数目从1000改为3,以适应我们要解决的问题。 
        # 加载预训练模型
        self.model = models.resnet18(pretrained=True)

        # 冻结前面的层
        for param in self.model.parameters():
            param.requires_grad = False

            # 修改最后一层
        num_ftrs = self.model.fc.in_features
        self.model.fc = nn.Linear(num_ftrs, 3)

    def forward(self, x):
        x = self.model(x)
        return x
#4. 在 Network 类中,定义 forward 方法,用于前向传播,输入数据经过预训练的ResNet18模型处理后输出。

net = Network()
#5. 实例化 Network 对象,即创建一个神经网络对象。 
# 数据加载
train_transforms = transforms.Compose([
    transforms.RandomResizedCrop(128),
    transforms.RandomHorizontalFlip(),
    transforms.ColorJitter(brightness=0.4, contrast=0.4, saturation=0.4, hue=0),
    transforms.RandomRotation(degrees=30),
    transforms.ToTensor(),
    transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
])
val_transforms = transforms.Compose([
    transforms.Resize(256),
    transforms.CenterCrop(128),
    transforms.ToTensor(),
    transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
])
#6. 定义训练数据和验证数据的预处理操作,例如随机裁剪、水平翻转、归一化等。 
train_data = ImageFolder('datasets/train', transform=train_transforms)
val_data = ImageFolder('datasets/val', transform=val_transforms)
#7. 使用 ImageFolder 类创建训练数据和验证数据的数据集对象,并使用 transforms 参数应用预处理操作。 
train_loader = DataLoader(train_data, batch_size=32, shuffle=True, num_workers=4, pin_memory=True)
val_loader = DataLoader(val_data, batch_size=32, shuffle=True, num_workers=4, pin_memory=True)
#8. 使用 DataLoader 类创建训练数据和验证数据的数据加载器对象,用于将数据分批次加载进神经网络。 
# 损失函数
loss_func = nn.CrossEntropyLoss()
#9. 定义损失函数为交叉熵损失,用于评估网络的预测错误。 
# 优化器
optimizer = optim.Adam(net.parameters(), lr=0.001)
#10. 定义优化器为Adam,用于更新网络参数,优化损失函数。 
# 学习率控制进程
train_lr_scheduler = lr_scheduler.StepLR(optimizer, step_size=7, gamma=0.1)
#11. 定义学习率调度器,用于在训练过程中按照策略调整学习率
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
#12. 设置设备,如果有GPU则使用GPU,否则使用CPU。 
net = net.to(device)
#13. 将神经网络移动到指定设备上。 

def train(net, loss_func, optimizer, train_lr_scheduler, num_epochs=25):
#14. 定义 train 函数,用于训练和验证神经网络。训练过程中的每一轮(epoch)分为训练阶段和验证阶段,分别计算每个阶段的损失和准确率。在训练阶段,根据损失值更新神经网络的参数;在验证阶段,不更新参数,只计算损失和准确率。
    for epoch in range(num_epochs):
        print("Training:Epoch {}/{}".format(epoch, num_epochs - 1))
        net.train()
        epoch_loss = 0
        epoch_corrects = 0
        for inputs, labels in train_loader:
            inputs = inputs.to(device)
            labels = labels.to(device)
            outputs = net(inputs)
            _, preds = torch.max(outputs, 1)
            loss = loss_func(outputs, labels)
            optimizer.zero_grad()
            loss.backward()
            optimizer.step()
            epoch_loss = epoch_loss + loss.item() * inputs.size(0)
            epoch_corrects = epoch_corrects + torch.sum(preds == labels.data)
        epoch_loss = epoch_loss / len(train_data)
        epoch_corrects = epoch_corrects.double() / len(train_data)
        print('train loss: {}, acc: {}'.format(epoch_loss, epoch_corrects))
        train_lr_scheduler.step()
        print("Valuating:Epoch {}/{}".format(epoch, num_epochs - 1))
        net.eval()
        epoch_loss = 0
        epoch_corrects = 0
        for inputs, labels in val_loader:
            inputs = inputs.to(device)
            labels = labels.to(device)
            outputs = net(inputs)
            _, preds = torch.max(outputs, 1)
            loss = loss_func(outputs, labels)
            epoch_loss = epoch_loss + loss.item() * inputs.size(0)
            epoch_corrects = epoch_corrects + torch.sum(preds == labels.data)
        epoch_loss = epoch_loss / len(val_data)
        epoch_corrects = epoch_corrects.double() / len(val_data)
        print('val loss: {}, acc: {}'.format(epoch_loss, epoch_corrects))

if __name__ == '__main__':
#15. 调用 train 函数,开始训练神经网络。
    train(net, loss_func, optimizer, train_lr_scheduler, num_epochs=25)
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值