pytorch FANISHION-MNIST训练了1280次loss降不下去了,一直在1.73左右,模型最后一步用的softmax

import collections 
# TODO: Train the network here
print("initial fc1.weights=",model.fc1.weight)
epoches = 1280
for i in range(epoches):
    images ,labels = next(iter(trainloader))
    #print("images.size()=",images.size()[0])
    #print("labels=",labels)
    t= images.size()[0]
    #print("t=",t)
    images.resize_(t,784)
    optimizer.zero_grad()
    output = model.forward(images)
    criterion = nn.CrossEntropyLoss()
    loss = criterion(output,labels)
    loss.backward()
    # print("gradient=",model.fc1.weight.grad)
    print("loss=",loss)
    optimizer.step()

 

#各步打印的loss

loss= tensor(1.8425, grad_fn=<NllLossBackward>)
loss= tensor(1.7099, grad_fn=<NllLossBackward>)
loss= tensor(1.6928, grad_fn=<NllLossBackward>)
loss= tensor(1.8132, grad_fn=<NllLossBackward>)
loss= tensor(1.7459, grad_fn=<NllLossBackward>)
loss= tensor(1.7712, grad_fn=<NllLossBackward>)
loss= tensor(1.7174, grad_fn=<NllLossBackward>)
loss= tensor(1.8287, grad_fn=<NllLossBackward>)
loss= tensor(1.8221, grad_fn=<NllLossBackward>)
loss= tensor(1.7079, grad_fn=<NllLossBackward>)
loss= tensor(1.8615, grad_fn=<NllLossBackward>)
loss= tensor(1.8535, grad_fn=<NllLossBackward>)
loss= tensor(1.7789, grad_fn=<NllLossBackward>)
loss= tensor(1.8826, grad_fn=<NllLossBackward>)
loss= tensor(1.7923, grad_fn=<NllLossBackward>)
loss= tensor(1.7446, grad_fn=<NllLossBackward>)
loss= tensor(1.7387, grad_fn=<NllLossBackward>)
loss= tensor(1.8063, grad_fn=<NllLossBackward>)
loss= tensor(1.7541, grad_fn=<NllLossBackward>)
loss= tensor(1.7205, grad_fn=<NllLossBackward>)
loss= tensor(1.7760, grad_fn=<NllLossBackward>)
loss= tensor(1.7013, grad_fn=<NllLossBackward>)
loss= tensor(1.8267, grad_fn=<NllLossBackward>)
loss= tensor(1.6684, grad_fn=<NllLossBackward>)
loss= tensor(1.7829, grad_fn=<NllLossBackward>)
loss= tensor(1.7570, grad_fn=<NllLossBackward>)
loss= tensor(1.7603, grad_fn=<NllLossBackward>)
loss= tensor(1.6776, grad_fn=<NllLossBackward>)
loss= tensor(1.7989, grad_fn=<NllLossBackward>)
loss= tensor(1.7488, grad_fn=<NllLossBackward>)
loss= tensor(1.7861, grad_fn=<NllLossBackward>)
loss= tensor(1.7122, grad_fn=<NllLossBackward>)
loss= tensor(1.7824, grad_fn=<NllLossBackward>)
loss= tensor(1.7683, grad_fn=<NllLossBackward>)
loss= tensor(1.7521, grad_fn=<NllLossBackward>)
loss= tensor(1.7753, grad_fn=<NllLossBackward>)
loss= tensor(1.7420, grad_fn=<NllLossBackward>)
loss= tensor(1.7792, grad_fn=<NllLossBackward>)
loss= tensor(1.8161, grad_fn=<NllLossBackward>)
loss= tensor(1.7306, grad_fn=<NllLossBackward>)
loss= tensor(1.7359, grad_fn=<NllLossBackward>)
loss= tensor(1.6829, grad_fn=<NllLossBackward>)
loss= tensor(1.7521, grad_fn=<NllLossBackward>)
loss= tensor(1.8347, grad_fn=<NllLossBackward>)
loss= tensor(1.7310, grad_fn=<NllLossBackward>)
loss= tensor(1.7629, grad_fn=<NllLossBackward>)
loss= tensor(1.7304, grad_fn=<NllLossBackward>)
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: pytorch fashion-mnist是使用pytorch框架的一个衣服图片分类任务数据集。它包含10个类别,共70,000张28×28的灰度图像。这个数据集可以用于测试和比较不同机器学习算法的性能,也可以用于学习深度学习和计算机视觉。 ### 回答2: Pytorch Fashion-MNIST是一个深度学习应用程序,它旨在处理类别多样、数量众多、复杂性高的模型。它利用了卷积神经网络(CNN)的强大功能,可以较好地处理这种类别众多、大量数据的情况。 Fashion-MNISTMNIST数据集的替代方案,用于测试和比较深度学习模型的性能。Fashion-MNIST包含了一组包括衣服、鞋类和包等物品的灰度图像,共计10个类别。每个图像都是28x28的分辨率,共有70000个样本,其中60000个是训练集,10000个是测试集。这个数据集的制作目的是验证深度学习模型对于更复杂、更具多样性的数据集的应用情况。 在使用PyTorch Fashion-MNIST时,我们需要先确定具体的模型。可以根据具体的要求、数据,选择不同的模型,如AlexNet、VGG、ResNet、Inception等等。在选择好模型后,我们需要对数据进行预处理。具体而言,我们可以进行归一化、数据增强、数据扩充等一系列操作,以增强模型的泛化能力。最后,我们可以进行训练和测试等操作,对模型进行评估,得出相应的性能指标。 总而言之,Pytorch Fashion-MNIST是一个非常实用的深度学习应用程序,能够处理复杂、多样性高的数据,并能够评估我们选择的模型在这些数据上的性能。它的使用非常广泛,可以应用于经典图像分类、物体检测、图像分割、神经网络可视化等领域。在未来,Pytorch Fashion-MNIST的应用前景非常广阔,同时,它的发展也将对深度学习模型的发展和性能提升带来很大的帮助。 ### 回答3: PyTorch是一个流行的深度学习框架,它提供了灵活的构建计算图的方式,可以实现高效的神经网络训练和推理。而Fashion-MNIST是一个常用的图像分类数据集,它包含10类不同的服装图像,每个类别共有6000张图像,其中包括训练集和测试集。 在PyTorch中使用Fashion-MNIST数据集可以实现训练和测试各种深度学习模型,例如CNN、RNN、GAN等。具体操作包括以下步骤: 1. 下载数据集:使用PyTorch内置的torchvision.datasets工具可以方便地下载和导入Fashion-MNIST数据集。 2. 数据预处理:对下载的数据进行预处理,包括归一化、缩放、旋转等操作,可以提高模型训练和测试效果。 3. 定义模型:使用PyTorch的nn.Module类可以定义各种深度学习模型,例如LeNet、ResNet、VGG等经典模型。 4. 训练模型:使用PyTorch的优化器和损失函数,例如SGD、Adam、CrossEntropy等,可以实现模型训练和参数更新。 5. 测试模型:使用测试集评估模型的性能,例如计算准确率、精确率、召回率等指标,可以判断模型是否过拟合或欠拟合。 总之,PyTorch和Fashion-MNIST结合可以实现快速构建和训练深度学习模型,加速图像分类、目标检测、语音处理等领域的研究和应用。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值