卷积神经网络(CNN)知识点

卷积神经网络(CNN)

1. 卷积核(convolutional kernel)----对某个局部的加权求和

  • 一般为奇数大小
  • 厚度对应通道数(channel),对应后一层的feature maps数
  • –11卷积核降维(example:当输入为661,通过111卷积核,输出仍为661矩阵。若输入6632(多通道),卷积核仍然为111,输出就变为66*1,实现降维)【发生在卷积核个数小于输入channel时,输出通道数等于卷积核个数】
  • —1*1卷积核(只会改变输出的通道数,不会影响输出特征高和宽)【实现了通道间的信息交互】

2. 池化(pooling)—对局部特征进行聚合寻找全局特征-----升维或降维

3. 全连接层(FC)—全连接层每一个结点都与上一层所有节点相连,将上一层的多维特征图转化成固定长度的特征向量,丢失位置信息,但组合了最具特征的图像特征,用于后续的softmax分类【将前面所有提取到的特征综合起来,参数是网络参数中最多的】【需要固定尺寸的输入】需要固定尺寸的输入

对于前层是全连接层的全连接层,转化为11的卷积
对于前层是卷积层的全连接层,转化为h
w的卷积(h、w为前层卷积结果的高和宽)

4.softmax函数

在这里插入图片描述
yk=第k个神经元的输出 ak=第k个神经元的输入指数 ai=所有输入信号指数和
在这里插入图片描述
加入常数C,放入指数项中logC,可以防止指数爆炸,出现溢出(一般C为输入信号最大值)
softmax输出为0-1间的实数,总和为1,使用输出值最大的神经元对应的类别作为识别结果
输出神经元的数量为需要分类的类别数

5. 为什么使用卷积?

A: 对于大量的输入数据,使用卷积可以有效地减少CNN中参数的数量

6. 为什么要用多个小卷积核,而不是使用一个大的卷积核?

A: 可以获得相同范围的感受野,且较小卷积核计算量小。更多的核需要使用更多的滤波器,使用更多的激活函数,使得CNN获得更有区分性的映射函数
感受野receptive field):表示网络内部不同位置的神经元对原图像的感受范围大小,感受野越大,能接触到原始图像的范围越大,越有全局和语义信息。感受野越小,趋向局部和细节。【每一层输出的feature map上的像素点在原图上的映射区域大小】
在这里插入图片描述

7. Dropout(防止过拟合的技术)

  • 一种正则化方法(在损失函数上加入某种规则,缩小解空间,减少出现过拟合可能性)
  • 方法:随即删除一些神经元,在不同批量上训练不同的神经网络架构。暂时丢弃部分神经元及其连接,可以防止过拟合,被丢弃概率为1-keep_prob,隐藏层丢弃概率为0.5。每次丢弃之后,改变了原始模型的结构,使得每次迭代都能训练一个不同的架构。【防止过拟合,提高了算法的学习速度】【仅在训练时删除神经元,测试时需要激活所有神经元】
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值