神经网络来啦

本文通过一个实例演示了神经网络中卷积层、池化层和线性层的使用,将3@32x32的输入转化为10的线性输出。解释了如何计算padding大小,并对比了使用和不使用Sequential的代码实现,强调在层数较多时,Sequential的便利性。
摘要由CSDN通过智能技术生成

     本文以下面这个图为例,来实战演示神经网络中的卷积层、池化层、线性层的具体用法,使得由原来输入3@32x32(3渠道,宽32,高32)的数据,最终转化为了10的线性数据。并且采用两种方式去写,一种没有用Sequential,一种用了Sequential。发现,当神经网络需要很多层的变换的时候,往往使用Sequential会会更加的方便。

 1.卷积层

    由3@32X32(3渠道,宽32,高32)的数据转换成32@32X32(32渠道,宽32,高32)的代码实现是怎么样的呢?

代码如下:

class net_work(nn.Module):
    def __init__(self):
        super(net_work, self).__init__()
        self.conv1 = Conv2d(3, 32, 5, padding=2)

此段代码的意思是,卷积变换,输入3渠道,输出32渠道,卷积核大小是5X5的,padding是2,好的,那问题来了,为什么padding的大小是2呢,当然是我们通过如下的数学公式计算出来的,我们打开pytorch的官网,找到长度变换公式(如下),由此

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值