pytorch初学笔记(十二):神经网络基本结构之线性层

目录

一、Linear线性层

1.1 线性层简介

1. 2 使用参数介绍

二、代码实战

2.1 输入数据集

2.2 展平输入向量为1*1*x

2.2.1 使用torch.reshape方法展平 

  2.2.2 使用torch.flatten方法展平

2.3 构建神经网络

2.4 完整代码


一、Linear线性层

官方文档:Linear — PyTorch 1.13 documentation

1.1 线性层简介

 CLASS  torch.nn.Linear(in_featuresout_featuresbias=Truedevice=Nonedtype=None)

每一层的某个神经元的值都为前一层所有神经元的值的sum和。 

1. 2 使用参数介绍

 基于公式y=wx+b计算,w为权重,x为输入,b为偏置值。 

 Parameters:

  • in_features,输入特征 (int) – size of each input sample,输入的tensor大小

  • out_features,输出特征 (int) – size of each output sample,输出的tensor大小

  • bias (bool) – If set to False, the layer will not learn an additive bias. Default: True

 

Variables: 

  • weight (torch.Tensor) – the learnable weights of the module of shape

  • bias – the learnable bias of the module of shape 

 

 

二、代码实战

 

 我们想要像上图中vgg model那样,输入一个 1*1*x的向量,线性变换后输出一个1*1*y的向量,因此我们需要获取到输入向量的宽数值,然后自己设定想要输出的宽值y即可。

 由于我们使用的数据集是cifar10,设置的batchsize=64,因此我们首先需要把图片集的(64,3,32,32)的大小使用reshape方法展平为(1,1,1,x)的大小,再作为输入向量输入神经网络中,x的大小可以在参数中设置为-1,让电脑为我们计算具体为多少值。

 

2.1 输入数据集

dataset = torchvision.datasets.CIFAR10(root="./CIFAR10", train=False, transform=torchvision.transforms.ToTensor(),
                                       download=True)
dataloader = DataLoader(dataset, batch_size=64)

 

2.2 展平输入向量为1*1*x

输入的数据集的size参数为(64,3,32,32), torch.size()中的四个参数分别代表:(batch size, channel, height, width)。即一批图片共64张,每张图片三个通道,长*宽为32*32。

有两种方法可以将向量展平,reshape和flatten,reshape比flatten更加灵活,因为可以自己指定尺寸大小,flatten只能把向量拉平成一条直线。

2.2.1 使用torch.reshape方法展平 

我们想要将其转换为batchsize=1,每张图片一个通道,长为1,宽为未知的图片;因为未知宽,因此在使用reshape方法设置参数时即可把宽的数值设置为-1,让电脑自己进行计算。

for data in dataloader:
    imgs, lables = data
    print(imgs.shape)
    out = torch.reshape(imgs, (1, 1, 1, -1))
    print(out.shape)

 

 

  2.2.2 使用torch.flatten方法展平

for data in dataloader:
    imgs, lables = data
    print(imgs.shape)
    input = torch.flatten(imgs)
    print(input.shape)
    output = maweiyi(input)
    print(output.shape)

 可以看到调整后的宽长度为196608。 

 

2.3 构建神经网络

设定Linear类中的in_feature和out_feature参数,前者为196608,后者我们想要输出一个宽为10的张量,因此设定为10。

class Maweiyi(torch.nn.Module):
    def __init__(self):
        super(Maweiyi, self).__init__()
        self.linear1 = Linear(196608, 10)

    def forward(self, input):
        output = self.linear1(input)
        return output

2.4 完整代码

import torch
import torchvision.datasets
from torch.nn import Linear
from torch.utils.data import DataLoader

dataset = torchvision.datasets.CIFAR10(root="./CIFAR10", train=False, transform=torchvision.transforms.ToTensor(),
                                       download=True)
dataloader = DataLoader(dataset, batch_size=64)


class Maweiyi(torch.nn.Module):
    def __init__(self):
        super(Maweiyi, self).__init__()
        self.linear1 = Linear(196608, 10)

    def forward(self, input):
        output = self.linear1(input)
        return output

maweiyi = Maweiyi()

for data in dataloader:
    imgs, lables = data
    print(imgs.shape)
    input = torch.flatten(imgs)
    print(input.shape)
    output = maweiyi(input)
    print(output.shape)

 可以看到输入的向量大小为64*3*32*32,展平后为1*1*1*196608,线性变化后为1*1*1*10,实现变换。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值