Lenet卷积神经网络结构的实现和详解

 pytorch tensor(张量) 的通道排序:batch,channel,height,width

在调试代码过程中,遇到无法识别conda命令,是因为没有添加Anaconda的环境变量

打开控制面板-系统-高级系统设置-环境变量-path-编辑-新建三个路径

分别是

anaconda3

anaconda3/script

anaconda3/library/bin

添加完成之后,普通命令窗口也可以调用conda命令

VSCode怎么一下子给所有代码注释掉,或者将批量代码注释掉:

1.首先ctrl+A 选中所有代码或者框选住需要注释的代码

2.Ctrl+/ 完成注释

代码详细解释

import torch.nn as nn
import torch.nn.functional as F


class LeNet(nn.Module):#定义LeNet这个类,这个类继承于nn.Module这个父类
    def __init__(self):#初始化函数,在里面搭建网络的一些网络层结构
        super(LeNet, self).__init__()#super解决在多重调用过程中继承父类方法中可能会出现的一些问题
        self.conv1 = nn.Conv2d(3, 16, 5)#第一个参数3(RGB)是输入特征矩阵的深度,第二个参数16是卷积核的个数,也是输出特征图的深度,第三个参数5就是卷积核的大小(尺寸5*5) padding=0 stride=1
        self.pool1 = nn.MaxPool2d(2, 2)#下采样层 第一个参数2是池化核的大小2*2 第二个参数2是步距
        self.conv2 = nn.Conv2d(16, 32, 5)#输入特征图的深度为16是因为上一层卷积层的输出特征矩阵的深度为16,第二个参数32是卷积核的个数,也是输出特征图的深度。卷积核的大小是5*5
        self.pool2 = nn.MaxPool2d(2, 2)#池化
        self.fc1 = nn.Linear(32*5*5, 120)#3层全连接层  输入是一维的向量  所以对32*5*5进行展平操作   第二个参数120是节点个数
        self.fc2 = nn.Linear(120, 84)#第二层输入是第一层输出的120个节点 输出是84个节点
        self.fc3 = nn.Linear(84, 10)#最后一层输入是上一层的输出   输出10个节点  数字0~9

    def forward(self, x):#forward函数中定义正向传播的过程,x代表我们输入的数据,数据顺序(batch,深度,高度,宽度)
        x = F.relu(self.conv1(x))    # input(3, 32, 32) output(16, 28, 28) (32-5+2*0)/1+1=28
        x = self.pool1(x)            # output(16, 14, 14) 经过下采样之后,高度和宽度缩减为原来的一半,2*2(4)个中取一个最大的,28*28是14*14的4倍。池化操作深度是不改变的
        x = F.relu(self.conv2(x))    # output(32, 10, 10) (14-5+2*0)/1+1=10
        x = self.pool2(x)            # output(32, 5, 5)经过池化之后  高度和宽度再缩减为原来的一半
        x = x.view(-1, 32*5*5)       # output(32*5*5)  通过view函数将数据展平为一维向量  -1代表它第一个维度 32*5*5代表节点的个数 
        x = F.relu(self.fc1(x))      # output(120)
        x = F.relu(self.fc2(x))      # output(84)
        x = self.fc3(x)              # output(10)
        return x

import torch
input1 = torch.rand([32,3,32,32])
model = LeNet()
print(model)
output = model(input1)

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值