第二课 卷积神经网络

第二课 卷积神经网络

卷积神经网络

  1. 输入层 H * W * C
  2. 卷积层 特征图大小由卷积核数量决定
  3. 池化层
  4. 全连接层

卷积层涉及参数

  1. 滑动窗口步长 S
  2. 卷积核尺寸 F
  3. 边缘填充 P
  4. 卷积核个数 n

卷积结果计算公式
H 2 = H 1 − F H + 2 P S + 1 W 2 = W 1 − F W + 2 P S + 1 H_2=\frac{H_1-F_H+2P}{S}+1\\ W_2=\frac{W_1-F_W+2P}{S}+1\\ H2=SH1FH+2P+1W2=SW1FW+2P+1
卷积参数共享

例:10个 5 ∗ 5 ∗ 3 5*5*3 553的卷积核参数为 10 ∗ ( 5 ∗ 5 ∗ 3 + 1 ) = 760 10*(5*5*3+1)=760 10(553+1)=760

池化层:压缩,降采样(一般选用maxpool)

整体网络架构

conv  RELU conv RELU POOL ... FC

层数:conv层数+FC层数(带参数的才能计数)

感受野

例:3个 3 ∗ 3 3*3 33的卷积核的感受野是 7 ∗ 7 7*7 77,堆叠小的卷积核所需的参数更少一些,卷积过程越多,特征提取也会越细致

卷积网络模块构建

  1. 一般卷积层,RELU层,池化层可以写成一个套餐
nn.Conv2d(
    in_channels,
    out_channels,
    kernel_size,
    stride,
    padding,
),
nn.RelU(),
nn.MaxPool2d(kernel_size=2)

如果希望卷积后图像大小不变,设置 p a d d i n g = ( k e r n e l _ s i z e − 1 ) / 2 i f s t r i d e = 1 padding=(kernel\_size-1)/2\quad if\quad stride=1 padding=(kernel_size1)/2ifstride=1

  1. 最后还要加入全连接层
forward:x=x.view(x.size(0),-1)

结果为(batch_size, n ∗ H ∗ W n*H*W nHW

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值