卷积神经网络
卷积层
![卷积层](https://img-blog.csdnimg.cn/20210710121100903.png)
鲁棒性: 也就是当数据发生变化或者其他的原因,算法的效率稳定。
卷积的特性: 拥有局部感知机制,因为每个卷积核的权值是不变的所以具有权值共享的特点,目的就是进行图像特征提取。
![普通神经网络](https://img-blog.csdnimg.cn/2021071012112991.png)
上图的参数大大的减少了,这就是权值共享的优势。
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210710121828483.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3FxXzM1NjkwMDQw,size_16,color_FFFFFF,t_70)
- 卷积的深度就是卷积核的个数,也就是输出特征矩阵的channel与卷积核个数相同。
- 卷积核的channel和输入特征层的channel相同
。
激活函数
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210710122341432.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3FxXzM1NjkwMDQw,size_16,color_FFFFFF,t_70)
使用较多的是relu激活函数。在用relu的时候尽量不要用很大的学习率进行学习,这样的话会导致很多神经元失活,神经元一旦失活在进行反向传播的时候可能就不会再次激活
。
卷积之后的矩阵尺寸