本文声明:作者才疏学浅,写文章记录和大家一起学习。
前情提要:
不懂张量的小伙伴可以看一看我的这篇博文: 两分钟了解神经网络中的张量
想了解神经网络三部曲的小伙伴可以看一看我的这篇博文: 两分钟了解神经网络中的梯度求解
想了解以把神经网络当成玩具来玩一下的可以看一看我的这篇文章: 理解神经网络的利器
池化层
全连接层
全连接层出现在卷积层和池化交替出现在最后,他们将前面卷积层提取到的局部特征进行整合并归一化,使后面的分类器可以根据这一层得到的 概率进行分类,全连接层常用的非线性激活函数有 Sigmoid,tanh。
假设在最后一次卷枳12X12X20的图像,然后要通过有100个神经元的全连接层。该过程可看做是有100个和图像一样大的卷积核12×12×20进行卷积运算,得到1X100的向量,交给最后的分类器或者做回归。
总结
本文从生动形象介绍了池化层和全连接层。通俗易懂~
点个赞,鼓励一下博主呗,么么哒~