工作原理
卷积层
参考https://blog.csdn.net/weixin_42652508/article/details/82726200
池化层
1、最大池化
输出每个区域的最大值
2、平均池化
输出每个区域的平均值
池化例子
这里选择了2x2的过滤器,步长为2。
全连接层
反向传播法(BP算法)
参考https://www.cnblogs.com/charlotte77/p/5629865.html
激活函数
常用的激活函数有sigmoid:
tanh、线性整流单元relu等等,前两者sigmoid/tanh比较常见于全连接层,后者ReLU常见于卷积层。
ReLU(The Rectified Linear Unit,修正线性单元),它的特点是收敛快,求梯度简单。计算公式:max(0,T),即对于输入的负值,输出全为0,对于正值,则原样输出。
分类
卷积神经网络包括:
一维卷积神经网络主要用于序列类的数据处理
二维卷积神经网络常应用于图像类文本的识别
三维卷积神经网络主要应用于医学图像以及视频类数据识别。
经典模型
参考https://blog.csdn.net/yaoxunji/article/details/88351396
参考
https://blog.csdn.net/weixin_42652508/article/details/82726200
https://www.cnblogs.com/wj-1314/p/9754072.html
https://www.cnblogs.com/charlotte77/p/5629865.html
https://blog.csdn.net/yaoxunji/article/details/88351396
仅供学习、研究