【深度学习04】 快速构建一个神经网络

本文介绍了卷积神经网络的基础知识,包括卷积层的定义、池化层的作用,以及如何使用PyTorch构建一个简单的神经网络模型。通过实例展示了如何加载CIFAR10数据集,并进行了图像卷积和池化的操作,强调了非线性激活在神经网络中的重要性。最后,搭建了一个包含卷积和池化层的神经网络模型。
摘要由CSDN通过智能技术生成


⭐本文内容:卷积,池化,非线性激活,线性组合,以及快速搭建一个简单的神经网络

基本骨架

import torch
import torch.nn as nn

class RecoModel(nn.Module):
  def __init__(self):
    super(RecoModel,self).__init__()  #将子模块指定为默认属性
    
  def forward(self,input):  #定义一个向前传播的函数
    output = input+1
    return output

1️⃣forward()定义了每次执行的 计算步骤。 在所有的Module中都需要重写这个函数

2️⃣RecoModel()(input)的 input 必须是tensor格式

Model = RecoModel()
x = torch.tensor(1.0)
output = Model(x)  #相当于RecoModel()()
print(output)

卷积层

torch.nn.Conv2d()函数

  • 示例:self.conv1 = Conv2d(in_channels=3,out_channels=6,kernel_size=3,stride=1,padding=0)
  • 作用:对图像进行2D卷积
  • 参数:
    • 🌈in_channels:输入的颜色通道数,彩色为3
    • 🚀out_channels:卷积产生的输出通道数
    • kernel_size:卷积核的大小
    • stride:卷积核移动的步长
    • paddingz:是否填充,边缘处小于卷积核则用0填充

卷积的概念:conv_arithmetic/README.md at master · vdumoulin/conv_arithmetic (github.com)

out_channels=2时,2个卷积核在图像上滑动,最后得到2个通道

定义模型

class Model(nn.Module):
  def __init__(self):
    super(Model,self).__init__()
    self.conv1 = Conv2d(in_channels=3,out_channels=6,kernel_size=3,stride=1,padding=0)
  
  def forward(self,x):
    x = self.conv1(x)
    return x

定义一层卷积层(2D卷积),输出通道数为6

加载数据集

dataset = torchvision.datasets.CIFAR10("/content/gdrive/MyDrive/Learn-		   pytorch/dataset",train=False,transform=torchvision.transforms.ToTensor())

dataloader = DataLoader(dataset,batch_size=64)

torchvision.datasets.CIFAR10()函数

  • 示例:dataset = torchvision.datasets.CIFAR10("/content/gdrive/MyDrive/Learn- pytorch/dataset",train=False,transform=torchvision.transforms.ToTensor())

  • 作用:下载数据集

  • 参数:

    • CIFAR10:官方数据集的名字
    • train=False:是否下载训练集。否,则下载测试集
    • 🍔transform=torchvision.transforms.ToTensor():转换为Tensor数据类型

图片卷积

for data in dataloader:
  imgs,targets = data
  out = Model()(imgs)
  print(imgs.shape)
  print(out.shape)
  writer.add_images("input",imgs,step)
  out = torch.reshape(out,(-1,3,30,30))
  writer.add_images("output",out,step)
  step=step+1

【First cycle output】 :torch.Size([64, 3, 32, 32]) torch.Size([64, 6, 30, 30])

🔥在数据集(dataloader)中读取每一份data,每一个data都包含imgs(图片,tensor格式),targets(标签)

⚡卷积前后的图像对比:

image-20220510152122807

image-20220510152156687

池化层

池化核每移动一个步长,然后取池化核所覆盖的图片,其范围内的最大值

在卷积层步长默认为1,在池化层步长为step=kernel_size=3

from torch.nn import MaxPool2d 
class Pool_test(nn.Module):
  def __init__(self):
    super(Pool_test,self).__init__()
    self.maxpool1 = MaxPool2d(kernel_size=3,ceil_mode=False)

  def forward(self,input):
    output = self.maxpool1(input)
    return output

test=Pool_test()

MaxPool2d()函数

  • 示例:self.maxpool1 = MaxPool2d(kernel_size=3,ceil_mode=False)
  • 作用:池化,相当于给图片打马赛克
  • 参数:
    • kernel_size:池化核窗口大小
    • ceil_mode:如果等于True,计算输出信号大小的时候,会使用向上取整,代替默认的向下取整的操作

池化核的移动

image-20220510145114454 image-20220510145321001 image-20220510145344930

池化的作用

模糊、马赛克

image-20220510151644638

image-20220510151711976

非线性激活

使得神经网络可以任意逼近任何非线性函数

如果没有非线性层,无论神经网络有多少层,输出都是输入的线性组合

使用一个sigmoid1()函数的效果对比:

image-20220511092650192

image-20220511092730100

搭建一个神经网络

image-20220516103813258

self.model1 = Sequential(
            Conv2d(3,32,5,1,2),
            MaxPool2d(2),
            Conv2d(32,32,5,1,2),
            MaxPool2d(2),
            Conv2d(32,64,5,1,2),
            MaxPool2d(2),
            Flatten(),
            Linear(1024,64),
            Linear(64,10),
            )
  • 卷积1

    image-20220516111051021

    🍺输入一个3@32x32的图像,经过5 x 5的卷积核,输出一个32通道,32x32大小的图像:Conv2d(3,32,5,1,2)

    3-通道数;32-图像尺寸;5-卷积核大小

    pading计算?

    image-20220516104615579

    Hin=32,padding[0]=?,dilation[0]默认为1,kernel_size[0]=5,stride[0]设置为1(我们设每一次卷积核移动1个像素点),Hout=32

    则:padding[0]=2;stride=1

  • 池化1

    image-20220516111123213

    MaxPool2d(2),池化核大小为2

  • 卷积2

    image-20220516111152044

    输入一个32@32*32的图像,经过5 x 5的卷积核,输出一个32通道,32x32大小的图像:Conv2d(32,32,5,1,2)

  • 池化2

  • 卷积3

    image-20220516110757830

    输入一个32@8x8的图像,经过5 x 5的卷积核,输出64@8x8的图像

  • 池化3

  • 展平层

    image-20220516111445976

    将64@4x4的tensor类型的图像,转成64x4x4=1024的一维向量数组

  • 线性层1

    对输入数据做线性变换:y=Ax+b

    image-20220516120831062

    Linear(1024,64),1024是输入向量组的长度,64是输出的长度

  • 线形层2

    image-20220516121022535

    将64个输入继续线性组合,最终输出10(因为最后分类的图像一共有十个类别):Linear(64,10)

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

落叶随峰

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值