pytorch实践学习:cnn

本文介绍了卷积神经网络的基本原理,重点在特征提取的卷积层,以及卷积核的channel数与输出的关系。文章还提及了GoogLeNet架构中的concatenate和1x1卷积在信息融合中的作用,并提供了卷积层的PyTorch实现代码,涉及到GPU加速和池化操作。
摘要由CSDN通过智能技术生成

一、卷积神经网络原理在这里插入图片描述

  1. feature extration:卷积层提取特征
    在这里插入图片描述
  2. 卷积核channel数与输入的channel数一样,一个卷积核卷积后得到的channel数为1,最终输出的channel数为卷积核数

二、代码实现

  1. 卷积层在这里插入图片描述
  • torch.randn()随机分布
  • torch.nn.conv2d()初始化卷积层,kernel_size参数可以直接为数值或者元组
  1. pedding:在这里插入图片描述
  2. pooling
  3. 在这里插入图片描述
    在这里插入图片描述
  4. 利用GPU:在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

三、googlenet

  1. 在这里插入图片描述
  • concatenate:拼接
  • 1*1conv:信息融合,将一个像素的三个通道信息融合
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值