tensorflow学习之关于全局均值池化(GAP)

1、全局平均池化
平均池化:在feature map上以窗口的形式进行滑动(类似卷积的窗口滑动),操作为取窗口内的平均值作为结果,经过操作后,feature map降采样,减少了过拟合现象。
全局平均池化GAP:不以窗口的形式取均值,而是以feature map为单位进行均值化。即一个feature map输出一个值。
《NIN》:使用全局平均池化代替CNN中传统的全连接层。在使用卷积层的识别任务中,全局平均池化能够为每一个特定的类别生成一个feature map(有多少个类就产生多少个feature map)。
GAP的优势在于:各个类别于feature map之间的联系更加直观(相比于全连接层的黑箱来说),feature map被转化为分类概率更加容易;因为在GAP中没有参数需要调,所以避免了过拟合问题;GAP汇总了空间信息,因此对输入的空间转换更为鲁棒。

2、类激活映射(class activation maps)
背景:卷积层能够保有目标在图像中的空间信息,而传统神经网络使用的全连接层却将这些有用的空间信息忽略。CNN网络提取出许多feature map,每个fearure map都能够表示出整个网络的部分特征了,因此需要做出一些改变将目标的空间信息利用起来,CAM就应运而生。
原理:使用GAP作为一个结构化的正则器,来预防训练中的过拟合问题。
**图注:**在gap层,每一个单元对应一张feature map,而每一个单元与最后一层的每一个单元又对应一个权重,因此,在得出所属类别的概率分数后,可使用后向反馈的方法修正权重,并根据权重大小找到对于该类别影响最大的feature map,最后得到heat map。
在gap层,每一个单元对应一张feature map,而每一个单元与最后一层的每一个单元又对应一个权重

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值