pytorch中保存网络损失loss简单代码

整体思路为,将每个iter 和每次输出的loss进行保存,然后利用plt进行绘图。

1## 保存loss和iteration

loss = []
iteration=[]
iteration.append(i)		#i是你的iter
loss.append(total_loss.item())		#total_loss.item()是你每一次inter输出的loss
    

2## plt绘图

	#num_iter是你总的迭代次数
    if i==num_iter-1:
        plt.figure()
        plt.plot(iteration, loss, label="loss")
        plt.draw()
        plt.show()

(后序:脑子不好的人只能记录每一个细节,如果还能帮到和我一样的小白,就超级好。嘻嘻?)

  • 14
    点赞
  • 49
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
以下是使用PyTorch进行二分类并保存最优模型的代码示例: ```python import torch import torch.nn as nn import torch.optim as optim # 定义模型 class Net(nn.Module): def __init__(self): super(Net, self).__init__() self.fc1 = nn.Linear(10, 5) self.fc2 = nn.Linear(5, 2) def forward(self, x): x = torch.relu(self.fc1(x)) x = self.fc2(x) return x # 定义训练函数 def train(model, train_loader, optimizer, criterion): model.train() running_loss = 0.0 for i, data in enumerate(train_loader, 0): inputs, labels = data optimizer.zero_grad() outputs = model(inputs) loss = criterion(outputs, labels) loss.backward() optimizer.step() running_loss += loss.item() return running_loss / len(train_loader) # 定义测试函数 def test(model, test_loader, criterion): model.eval() correct = 0 total = 0 with torch.no_grad(): for data in test_loader: inputs, labels = data outputs = model(inputs) _, predicted = torch.max(outputs.data, 1) total += labels.size(0) correct += (predicted == labels).sum().item() return correct / total # 加载数据集 train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=32, shuffle=True) test_loader = torch.utils.data.DataLoader(test_dataset, batch_size=32, shuffle=False) # 初始化模型、损失函数和优化器 model = Net() criterion = nn.CrossEntropyLoss() optimizer = optim.SGD(model.parameters(), lr=0.001, momentum=0.9) # 训练模型并保存最优模型 best_acc = 0.0 for epoch in range(10): train_loss = train(model, train_loader, optimizer, criterion) test_acc = test(model, test_loader, criterion) if test_acc > best_acc: best_acc = test_acc torch.save(model.state_dict(), 'best_model.pth') print('Epoch: {}, Train Loss: {:.4f}, Test Acc: {:.4f}'.format(epoch+1, train_loss, test_acc)) ``` 在上述代码,我们定义了一个简单的神经网络模型 `Net`,并使用交叉熵损失函数和随机梯度下降优化器进行训练。在每个 epoch 结束时,我们计算测试集上的准确率,并将当前模型的状态保存到文件 `best_model.pth` ,如果当前模型的准确率比之前保存的最优模型的准确率更高,则更新最优模型。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值