深度学习系列(二) 卷积神经网络之基础知识 2020.6.17

本文详细介绍了卷积神经网络的基础知识,包括卷积层的互相关运算、二维卷积、填充和步幅的概念,以及多输入通道和多输出通道的处理。此外,还讨论了1*1卷积层的作用和池化层的功能,最后以经典的LeNet为例展示了卷积神经网络的结构。
摘要由CSDN通过智能技术生成

前言

本节学习卷积神经网络的基础知识

  • 卷积层
  • 填充和步幅
  • 多输入和多输出通道
  • 池化层
  • 卷积神经网络

1、卷积层

互相关运算

卷积层来源于卷积运算
但通常会用互相关运算
如图所示,0 * 0 + 1 * 1 + 3 * 2 + 4 * 3 = 19
在这里插入图片描述
卷积窗口从输⼊数组的最左上⽅开始
按从左往右、从上往下的顺序,依次在输⼊数组上滑动

实现如下

from mxnet import autograd, nd
from mxnet.gluon import nn
def corr2d(X, K):  # 本函数已在d2lzh库中有
    h, w = K.shape
    Y = nd.zeros((X.shape[0] - h + 1, X.shape[1] - w + 1))
    for i in range(Y.shape[0]):
        for j in range(Y.shape[1]):
            Y[i, j] = (X[i: i + h, j: j + w] * K).sum()
    return Y
二维卷积层
  • 卷积层的模型参数包括了卷积核和标量偏差
  • 在训练模型的时候,通常先对卷积核随机初始化,然后不断迭代卷积核和偏差
class Conv2D(nn.Block):
    def __init__(self, kernel_size, **kwargs):
        super(Conv2D, self).__init__(**kwargs)
        self.weight = self.params.get('weight', shape=kernel_size)
        self.bias = self.params.get('bias', shape=(1,))
    def forward(self, x):
    	return corr2d(x, self.weight.data()) + self.bias.data()
例子

使⽤物体边缘检测中的输⼊数据X和输出数据Y来学习我们构造的核数组K

  • ⾸先构造⼀个卷积层,将其卷积核初始化成随机数组
  • 接下来在每⼀次迭代中,⽤平⽅误差来⽐较Y和卷积层的输出
  • 然后计算梯度来更新权重
conv2d 
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值