动手学深度学习 23 经典卷积神经网络 LeNet

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档


前言


一、相关知识

  1. torch.nn.Sequential()函数        

    1. 是一个预定义神经网络模型 简化了模型的构建
    2. 构建神经网络
      1. hidden_layer = 100 
        input_data = 1000 
        output_data = 10 
        
        models = torch.nn.Sequential( 
         torch.nn.Linear(input_data, hidden_layer), 
         torch.nn.ReLU(), 
         torch.nn.Linear(hidden_layer, output_data) 
        ) 
        
        print(models)
        
        1.                         

  2.   nn.Conv2d() 函数

    1. 使用示例

      import torch
      
      x = torch.randn(3,1,5,4)
      print(x)
      
      conv = torch.nn.Conv2d(1,4,(2,3))
      res = conv(x)
      
      print(res.shape)    # torch.Size([3, 4, 4, 2])
      
      

      输入:x[ batch_size, channels, height_1, width_1 ]
      batch_size,一个batch中样本的个数 3
      channels,通道数,也就是当前层的深度 1
      height_1, 图片的高 5
      width_1, 图片的宽 4

      卷积操作:Conv2d[ channels, output, height_2, width_2 ]
      channels,通道数,和上面保持一致,也就是当前层的深度 1
      output ,输出的深度 4【需要4个filter】
      height_2,卷积核的高 2
      width_2,卷积核的宽 3

      输出:res[ batch_size,output, height_3, width_3 ]
      batch_size,,一个batch中样例的个数,同上 3
      output, 输出的深度 4
      height_3, 卷积结果的高度 4
      width_3,卷积结果的宽度 2

    2. 通道数

  3. nn.Sigmoid() 函数

    1. 定义:

      1. PyTorch 中的一个函数,用于计算输入的 sigmoid 函数值。 sigmoid 函数是一个常用的激活函数,将输入的值映射到了 (0,1) 之间,通常用于神经网络的二分类问题的输出层。
  4.   torch.nn.Flatten()函数

    1. 定义:

      1. 是PyTorch中的一个函数,用于将输入张量展平为一维张量。它可以用于将卷积层的输出张量展平为全连接层的输入张量,也可以用于将任意形状的张量展平为一维张量。该函数的参数包括输入张量和展平后的维度大小。       

    2.  使用:

  5.  nn.Linear()函数

    1. 定义

      1. 是PyTorch中的一个函数,用于进行线性变换。它接受两个参数:输入张量和权重张量,并返回一个输出张量。该函数可以用于实现全连接层、卷积层等神经网络中的线性变换操作。
    2. 使用

      1.  

总结

  • 卷积神经网络(CNN)是一类使用卷积层的网络。

  • 在卷积神经网络中,我们组合使用卷积层、非线性激活函数和汇聚层。

  • 为了构造高性能的卷积神经网络,我们通常对卷积层进行排列,逐渐降低其表示的空间分辨率,同时增加通道数。

  • 在传统的卷积神经网络中,卷积块编码得到的表征在输出之前需由一个或多个全连接层进行处理。

  • LeNet是最早发布的卷积神经网络之一。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值