解析卷积神经网络学习笔记——魏秀参

第二章 CNN基本部件

1.理解批处理和随机梯度下降:
训练模型时随机选取n个训练样本作为一个batch(批输入),那么经过设计好的卷积神经网络就可以输出n个预测值,对这n个预测值求其损失函数(注意损失函数绝不是一个样本一个样本求的,它是n个样本的总体误差,需要除以n的),然后用梯度下降的方法更新参数,这样的一次过程就叫批处理(mini-batch)
而我们选取样本的方式是不放回随机抽样直至遍历所有样本,就是我理解的随机梯度下降。

2.理解BP算法:
基于链式法则,其实就是求偏导时换元的问题。在这里插入图片描述
注:
即X(i+1)对w(i)求偏导等于Xi
3.理解卷积的操作:
对于黑白图像仅有一个通道很好理解,就是用一个二维(如3X3)的矩阵去不断滑动黑白图像,提取特征。
而对于彩色图像,有RGB三个通道,它的输入比如是(6X6X3),这时我们一个卷积核,注意是一个卷积核,维度就是(比如3X3X3),卷积核的矩阵也需变成三个通道,然后对应相乘相加求和,得出只有一个二维矩阵了。
注意一个卷积核情况下会把原来输入的三个通道的矩阵变成一个通道,而我们可以选择用多个卷积核,比如选三个卷积核,即3个3X3X3矩阵来做卷积运算,此时我们获得矩阵就又有三个通道。
在这里插入图片描述4.池化层:池化层的作用是防止过拟合化以及降低卷积之后得到的矩阵维度,(一般会设置多个卷积核得到多个维度的矩阵,此时池化会降低每个维度下的矩阵大小,从而减少计算量。与卷积操作不同的是,池化这一层它不改变输入的维度。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值