01.12 pytorch学习(损失函数与反向传播)

文章目录

损失函数

我们称作神经网络的预测值的错误率(非百分比)为损失函数
计算损失值的方法不一样,torch.nn里面提供了多种损失函数pytorch提供排的损失函数部分
这里不得不提一下,据我所知,在线性激活函数过后,得到一组一维数组,值对应的是网络预测的每个类别的概率。

举个例子
[0.1,0.2,0.3]
那么这个数据最有可能是target=2(下标从0开始)

用代码来演示一下损失函数

import torch
from torch.nn import L1Loss,MSELoss,CrossEntropyLoss

inputs = torch.tensor([1,2,3],dtype=torch.float32)
targets = torch.tensor([1,2,5], dtype=torch.float32)

inputs = torch.reshape(inputs,(1,1,1,3))
targets = torch.reshape(targets,(1,1,1,3))

#平均损失函数
#reduction:计算的方式
loss = L1Loss(reduction='sum')
#均方损失函数
loss2 = MSELoss()

result1=loss(inputs,targets)
result2=loss2(inputs,targets)
print(result1)
print(result2)

#演示
x = torch.tensor([0.1,0.2,0.3])
y = torch.tensor([1])
crossentropyloss = CrossEntropyLoss()
print(x.shape)#如果不reshape,就是是[3],不会是[1,3]
x = torch.reshape(x,(1,3))#reshape一下
print(x.shape)
c = crossentropyloss(x,y)
print(c)

#结果
#tensor(2.)
#tensor(1.3333)
#torch.Size([3])
#torch.Size([1, 3])
#tensor(1.1019)

1.1019是我们的损失函数的输出,有什么用呢,我们可以使用梯度下降法,使损失函数变成最小(就是求导)
梯度下降

对于分类的问题,有交叉熵损失函数
下面介绍:

我们使用CIFAR10数据集来举例

CIFAR10共10个类别
一张图像(batch_size,chanel,W,H)通过神经网络的处理变更成大小为10的一维数组(见文章第一张图下面),然后由损失函数求出误差进行优化,优化这节还没讲

代码:

import torch
import torch.nn as nn
import torchvision
from torch.utils.data import DataLoader
from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequential

dataset = torchvision.datasets.CIFAR10("./dataset2", train=True, transform=torchvision.transforms.ToTensor(), download=True)
dataloader = DataLoader(dataset,batch_size=64)

#生成一个(64,3,32,32)格式的全1矩阵
input = torch.ones((64,3,32,32))

class Tudui(nn.Module):
    def __init__(self):
        super(Tudui, self).__init__()
        self.model1 = Sequential(Conv2d(3,32,5,padding=2)
                                 , MaxPool2d(2)
                                , Conv2d(32,32,5,padding=2)
                                , MaxPool2d(2)
                                , Conv2d(32,64,5,padding=2)
                                , MaxPool2d(2)
                                , Flatten()
                                , Linear(1024,64)
                                , Linear(64,10))
    def forward(self,x):
        x = self.model1(x)
        return x

index = 0
loss = nn.CrossEntropyLoss()
tudui = Tudui()
for data in dataloader:
    #这里的img和target和上一节代码的输入有点不同,
    #Input: (N, C) where C = number of classes, or (N,C,d1 ,d2 ,...,dK ) with K \geq 1K≥1 in the case of K-dimensional loss.
    #翻译下英文就知道了,都是第一种方式,一个输入(batch_size=1),和一组输入(batch_size=64)。
    img,target = data
    print(img.shape)#torch.Size([64, 3, 32, 32])
    print(target)
    output = tudui(img)
    print(output.shape)#torch.Size([64, 10])
    outputloss = loss(output,target)
    print(outputloss)
    index += 1
    if index>= 10:
        break

反向传播:backward使用方法下节讲

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

I Am Rex

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值