一、卷积层
卷积层:提取特征
池化层:压缩特征
这个只演示了一层
每个通道各自提取(R,G,B三个通道),整合(三层结果相加)
padding是为了让边界点利用次数更多,padding = 1是边界填充一圈0(为什么添加0呢,因为0不会对原结果造成影响)
卷积核个数决定得多少个特征图,10个卷积核就是10个特征图
二、池化层
maxpool最大池化是选择最大的权重,因为其是最好的特征,就没必要平均池化了(为什么要将最好的特征给平均了呢,没必要吧)
三、
只有带参数的东西才能称为一层,例如conv和FC。Relu,pool不算,所以共七层
四、
1.Alexnet 2012年的
了解有这个东西就好,没什么用的网络 ,太老了,问题很大
2.vgg 2014年的 相比于Alexnet有很大改变
所有卷积核大小都是3*3
池化层损失的特征,用下次更多数据填补,缺点是训练时间长,但精度比Alexnet高
五、卷积核大小的影响
堆叠小的卷积核,参数少一些,而且训练过程还快一些,三次卷积可以增加三层relu,线性改变很多,权重不会改变
六、卷积神经网络简单代码实现