全连接层后面加bn层_【机器学习】卷积层,池化层,全连接层,BN层作用;CNN 网络参数数量的计算...

官方文档:https://keras.io/layers/convolutional/#zeropadding2d

https://blog.keras.io/building-powerful-image-classification-models-using-very-little-data.html VGG16架构

#【搬运】conv卷积层:

1.相当于一个特征提取器(特征增强,消除噪声)2.提供了位置信息3.减少了参数个数

#【搬运】pooling池化层:#1.提取特征(减少之前的特征维数)#2.减少训练参数#3.进而防止过拟合(泛化能力加强)。 激活函数:增加网络的非线性表达能力。

#1 过滤越来越多的卷积层,提取越来越高级的特征#2 Max pooling和Global Average Pooling用来只保留这些特征中最强的,保证特征的位置与旋转不变性,减少模型参数数量,减少过拟合问题

————————————————————————————

https://blog.csdn.net/qq_39521554/article/details/81385159

【半搬运】对全连接层(fully connected layer)的通俗理解:

全连接层(fully connected layers,FC)(通过矩阵向量乘积)在整个卷积神经网络中起到“分类器”的作用。如果说卷积层、池化层和激活函数层等操作是将原始数据映射到隐层特征空间的话,全连接层则对前面的特征(通过“全局平均值global average pooling”的方法减少全连接的参数)做加权和,将学到的“分布式特征表示”(高度提纯的特征)映射到样本标记空间。

【https://blog.csdn.net/m0_37407756/article/details/80904580

卷积取的是局部特征,全连接就是把以前的局部特征重新通过权值矩阵组装成完整的图。因为用到了所有的局部特征,所以叫全连接。】

在实际使用中,全连接层可以转化为卷积核为1x1的卷积。

https://www.cnblogs.com/ymjyqsx/p/9451739.html

卷积层本来就是全连接的一种简化形式:不全连接+参数共享,把局部视野之外的弱影响直接抹为零影响,同时还保留了空间位置信息(卷积层不同位置的权值共享

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值