BP神经网络存在以下问题:
1.全连接,权值太多,需要很多样本去训练,计算困难
• 应对之道:减少权值的尝试,局部连接,权值共享
卷积神经网络有两大神器可以降低参数量。
第一种神器:卷积层
第二级神器:池化层
1.卷积神经网络结构
卷积神经网络(简称CNN)的结构图如下图
卷积神经网络由一般结构构成:卷积层、激励层、池化层、全连接层
2.卷积层作用
卷积层学习输入的特征表示,在学习过程中输入特征会被分割成一些区块,每个区块的卷积核相同,输入特征与卷积核做卷积,利用权值共享的方式把结果传递给激活函数,权值共享可以减少模型的复杂度、使网络更易训练
3.池化层作用
池化层夹在连续的卷积层和激励层中间,进行数据压缩,减小过拟合,主要的压缩方式有Max pooling(取数据区块的最大值)和average pooling(取数据区块的平均值),
4.全连接层(BP神经网络)
几个卷积层和池化层之后,通常有一个或几个全连接层,他们把前一层所有的神经元与当前层的每一个神经元相连接,这一层利用的是BP神经网络进行计算
5.卷积神经网络的应用
1.计算机视觉:图像分类、对象追踪、姿态估计、视觉显著性检测、行为追踪、场景标示
2.自然语言处理(NLP):把句子或文档以矩阵的形式表示,把矩阵当成一副图像
3.语音识别等
6.卷积神经网络怎样减少梯度下降
通过激活函数relu减少梯度下降
这边文章感觉写的挺详细,也易于理解:https://www.cnblogs.com/skyfsm/p/6790245.html