model.train和model.eval之Batch Normalization 和 Dropout

model.train()和model.eval()用法和区别

1.1 model.train()

model.train()的作用是启用 Batch NormalizationDropout

如果模型中有BN层(Batch Normalization)和Dropout,需要在训练时添加model.train()。model.train()是保证BN层能够用到每一批数据的均值和方差。对于Dropout,model.train()是随机取一部分网络连接来训练更新参数。

1.2 model.eval()

model.eval()的作用是不启用 Batch Normalization 和 Dropout。

如果模型中有BN层(Batch Normalization)和Dropout,在测试时添加model.eval()。model.eval()是保证BN层能够用全部训练数据的均值和方差,即测试过程中要保证BN层的均值和方差不变。对于Dropout,model.eval()是利用到了所有网络连接,即不进行随机舍弃神经元。

训练完train样本后,生成的模型model要用来测试样本。在model(test)之前,需要加上model.eval(),否则的话,有输入数据,即使不训练,它也会改变权值。这是model中含有BN层和Dropout所带来的的性质。

在做one classification的时候,训练集和测试集的样本分布是不一样的,尤其需要注意这一点。

封装好的代码块如下

  • Batch Normalization 和 Dropout 在代码中的使用
class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.conv1 = nn.Conv2d(3, 16, 3)
        self.bn1 = nn.BatchNorm2d(16)
        self.conv2 = nn.Conv2d(16, 32, 3)
        self.bn2 = nn.BatchNorm2d(32)
        self.conv3 = nn.Conv2d(32, 64, 3)
        self.bn3 = nn.BatchNorm2d(64)
        self.fc1 = nn.Linear(64*10*10, 1024)
        self.fc2 = nn.Linear(1024, 4)
    def forward(self, x):
        x = F.relu(self.conv1(x))
        x = self.bn1(x)
        x = F.max_pool2d(x, 2)
        x = F.relu(self.conv2(x))
        x = self.bn2(x)
        x = F.max_pool2d(x, 2)
        x = F.relu(self.conv3(x))
        x = self.bn3(x)
        x = F.max_pool2d(x, 2)
        x = x.view(-1, 64*10*10)
        x = F.dropout(x)
        x = F.relu(self.fc1(x))
        x = F.dropout(x)
        x = self.fc2(x)
        return x
  • 在Gpu上训练 模型初始化 定义损失函数和优化器

在这里插入图片描述

  • 训练代码:(model.train()和model.eval()还没加进去 回头+里面)
def fit(epoch, model, trainloader, testloader):
    correct = 0
    total = 0
    running_loss = 0
    for x, y in trainloader:
        if torch.cuda.is_available():
            x, y = x.to('cuda'), y.to('cuda')
        y_pred = model(x)
        loss = loss_fn(y_pred, y)
        optim.zero_grad()
        loss.backward()
        optim.step()
        with torch.no_grad():
            y_pred = torch.argmax(y_pred, dim=1)
            correct += (y_pred == y).sum().item()
            total += y.size(0)
            running_loss += loss.item()
        
    epoch_loss = running_loss / len(trainloader)
    epoch_acc = correct / total
        
        
    test_correct = 0
    test_total = 0
    test_running_loss = 0 
    
    with torch.no_grad():
        for x, y in testloader:
            if torch.cuda.is_available():
                x, y = x.to('cuda'), y.to('cuda')
            y_pred = model(x)
            loss = loss_fn(y_pred, y)
            y_pred = torch.argmax(y_pred, dim=1)
            test_correct += (y_pred == y).sum().item()
            test_total += y.size(0)
            test_running_loss += loss.item()
    
    epoch_test_loss = test_running_loss / len(testloader)
    epoch_test_acc = test_correct / test_total
    
        
    print('epoch: ', epoch, 
          'loss: ', round(epoch_loss, 3),
          'accuracy:', round(epoch_acc, 3),
          'test_loss: ', round(epoch_test_loss, 3),
          'test_accuracy:', round(epoch_test_acc, 3)
             )
        
    return epoch_loss, epoch_acc, epoch_test_loss, epoch_test_acc
  • 记录结果方便画图
train_loss = []
train_acc = []
test_loss = []
test_acc = []

for epoch in range(epochs):
    epoch_loss, epoch_acc, epoch_test_loss, epoch_test_acc = fit(epoch,
                                                                 model,
                                                                 train_dl,
                                                                 test_dl)
    train_loss.append(epoch_loss)
    train_acc.append(epoch_acc)
    test_loss.append(epoch_test_loss)
    test_acc.append(epoch_test_acc)

完整的如下:
在这里插入图片描述

def fit(epoch, model, trainloader, testloader):
    correct = 0
    total = 0
    running_loss = 0
    model.train()
    for x, y in trainloader:
        if torch.cuda.is_available():
            x, y = x.to('cuda'), y.to('cuda')
        y_pred = model(x)
        loss = loss_fn(y_pred, y)
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()
        with torch.no_grad():
            y_pred = torch.argmax(y_pred, dim=1)
            correct += (y_pred == y).sum().item()
            total += y.size(0)
            running_loss += loss.item()
#    exp_lr_scheduler.step()
    epoch_loss = running_loss / len(trainloader.dataset)
    epoch_acc = correct / total
        
        
    test_correct = 0
    test_total = 0
    test_running_loss = 0 
    
    model.eval()
    with torch.no_grad():
        for x, y in testloader:
            if torch.cuda.is_available():
                x, y = x.to('cuda'), y.to('cuda')
            y_pred = model(x)
            loss = loss_fn(y_pred, y)
            y_pred = torch.argmax(y_pred, dim=1)
            test_correct += (y_pred == y).sum().item()
            test_total += y.size(0)
            test_running_loss += loss.item()
    
    epoch_test_loss = test_running_loss / len(testloader.dataset)
    epoch_test_acc = test_correct / test_total
    
        
    print('epoch: ', epoch, 
          'loss: ', round(epoch_loss, 3),
          'accuracy:', round(epoch_acc, 3),
          'test_loss: ', round(epoch_test_loss, 3),
          'test_accuracy:', round(epoch_test_acc, 3)
             )
        
    return epoch_loss, epoch_acc, epoch_test_loss, epoch_test_acc
epochs = 50
train_loss = []
train_acc = []
test_loss = []
test_acc = []

for epoch in range(epochs):
    epoch_loss, epoch_acc, epoch_test_loss, epoch_test_acc = fit(epoch,
                                                                 model,
                                                                 train_dl,
                                                                 test_dl)
    train_loss.append(epoch_loss)
    train_acc.append(epoch_acc)
    test_loss.append(epoch_test_loss)
    test_acc.append(epoch_test_acc)
print("Done!")

在这里插入图片描述

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 在PyTorch中,`model.train()`和`model.eval()`是用于设置模型训练模式和评估模式的方法。 当调用`model.train()`时,模型会进入训练模式。在训练模式下,模型会启用一些特定的功能,例如批量归一化和Dropout等。这些功能在训练期间是有用的,但在评估期间不需要。 当调用`model.eval()`时,模型会进入评估模式。在评估模式下,模型会关闭训练期间的一些特定功能,以确保评估结果的一致性和可靠性。 在训练期间,通常需要将模型设置为训练模式,以便在每个批次中更新模型参数。而在评估期间,需要将模型设置为评估模式,以便在测试集或验证集上进行评估,以便了解模型的性能。 需要注意的是,在调用`model.eval()`方法后,模型权重不会被修改。所以,如果需要继续训练模型,请确保在继续训练前调用`model.train()`方法,以将模型设置为训练模式。 ### 回答2: 在PyTorch中,model.train()和model.eval()都是用来设置模型的训练模式的方法。 当调用model.train()方法时,模型的状态被设置为训练模式。这意味着模型会启用Batch NormalizationDropout等训练专用的层或操作,并且会自动计算梯度以便进行反向传播和参数更新。在模型进行迭代训练时,应该使用train()方法来确保模型运行在正确的模式下。 相反,当调用model.eval()方法时,模型的状态被设置为评估模式。在评估模式中,模型会固定住Batch NormalizationDropout等训练专用的层或操作的值,以便进行模型的前向传播。这使得我们可以获得模型在评估数据上的输出。在测试、验证或推断模型时,应该使用eval()方法。 需要注意的是,当模型被调用时,它将自动在前向传播和后续计算中切换到适当的模式。因此,在每个模型被调用前,我们通常只需要调用train()或eval()方法一次即可。 综上所述,model.train()和model.eval()方法在PyTorch中用于设置模型的训练模式和评估模式,以确保模型在正确的状态下进行训练和评估。 ### 回答3: 在PyTorch中,model.train()和model.eval()是用来控制模型训练和评估过程的方法。 model.train() 方法主要用于将模型切换到训练模式。在训练模式下,模型会启用 Dropout 和 Batch Normalization 等操作的训练过程,以及训练数据的随机打乱。这种模式适合用于训练阶段,可以帮助模型更好地学习数据的特征和模式。 model.eval() 方法主要用于将模型切换到评估模式。在评估模式下,模型会禁用 Dropout 和 Batch Normalization 等操作的随机性,以保证结果的确定性。这种模式适合用于模型的验证和测试阶段,可以保证模型的输出能够可靠地进行评估。 当我们进行模型的训练时,一般会通过在每个批次数据上调用model.train()切换到训练模式,并且在每个批次数据上进行前向计算和反向传播来更新模型的权重。而在验证或测试阶段,会通过调用model.eval()切换到评估模式,并且只进行前向计算来生成模型的输出结果,以评估模型的性能。 总之,model.train()和model.eval()主要用于控制模型的训练和评估过程。通过切换模式,可以灵活地控制模型的操作,使其在不同的阶段达到最佳的效果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值