验证计算机视觉中的Attention

注意:
使用的Resnet50 作为base没数据局采用的时候
数据集采用花分类数据集
超参数没做任何的调整
只跑了30个epoch 感觉模型还没有问完全达到最优的性能
没有使用任何的预训练权重

  1. 只使用Resnet
    Loss:

在这里插入图片描述
在这里插入图片描述
Acc:最好是在0.79左右
在这里插入图片描述
在这里插入图片描述

  1. 在相同的情况下只加入了SE 方式的注意力

Loss:
在这里插入图片描述在这里插入图片描述

ACC:
在这里插入图片描述

在这里插入图片描述

用的1x1卷积是se网络最大的特点,实验效果好,全链接层都是放到最后。对图片语义损失挺大,中间就经过很多层fc效果一般都不咋地,不绝对。
SE的怎么实现感觉区别还是很大的,最后结果如果还是要看.我就换成卷积了 但是效果不好。降低了三个点左右。

Auc:最好是在0.85左右提升还是很大的
4. scSENet 好家伙就是是因为太复杂了吗,不对他的空间attention 应该是有利于分割或者是之类的pixel level的实验。
结果AUC只有0.5

比如这个大佬所做的:https://www.cnblogs.com/pprp/p/12200334.html,就不重复尝试了。

PS:尝试理解Attention的作用原理
全连接的作用的是对一个实体进行从一个特征空间到另一个特征空间的映射,而注意力机制是要对来自同一个特征空间的多个实体进行整合。
全连接的权重对应的是一个实体上的每个特征的重要性,而注意力机制的输出结果是各个实体的重要性。
比如说,一个单词“love”在从200维的特征空间转换到100维的特征空间时,使用的是全连接,不需要注意力机制,因为特征空间每一维的意义是固定的。而如果我们面对的是词组“I love you”,需要对三个200维的实体特征进行整合,整合为一个200维的实体,此时就要考虑到实体间的位置可能发生变化,我们下次收到的句子可能是“love you I”,从而需要一个与位置无关的方案。

作者:SleepyBag
链接:https://www.zhihu.com/question/320174043/answer/651998472
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

这也就是为什么上述这些其实放在encoder的过程中,也就是维度增大的过程中,work的比较好的原因。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值