卷积神经网络-基础教程_哔哩哔哩_bilibili
池化层Pooling
主要对卷积层学习到的特征图进行亚采样(subsampling)处理
最大池化
平均池化
降低了后续网络层的输入维度,缩减模型大小,提高计算速度
提高了Feature Map 的鲁棒性,防止过拟合
激活层activation layer
负责对卷积层抽取的特征进行激活,对卷积的线性变换结果进行非线性映射。
ReLu、LeakReLu、PReLu、ELU、SELU激活函数 - 知乎 (zhihu.com)
ReLu
代码懒得贴上来了。
全连接层
就是通过全连接层将原本的特征图转化为最终进行分类、回归任务的作用。
全连接层的原理:
(2条消息) 全连接层(Fully Connected Layer)_CVAIDL的博客-CSDN博客_全连接层公式
就是:
全连接层还可以将分布式特征representation映射到样本标记空间,大大减少特征位置对分类带来的影响:
解决非线性问题:
validation accuracy验证准确性。
全连接层的作用是什么? - 知乎 (zhihu.com)陈大宝的回答
案例:
代码就先懒得贴上来了...(有需要再联系我吧)
np.random.rand(3,3,3)的输出:
(2条消息) Python学习:matplotlib模块——plt.savefig存储文件_awesome.st的博客-CSDN博客_plt.savefig 运行代码报错:
解决方法:
(2条消息) cannot import name '_validate_lengths' from 'numpy.lib.arraypad'_大鱼的博客-CSDN博客
升级skimage版本。