# 每天一篇论文 250/365 最大期望注意力语义分割网络

Expectation-Maximization Attention Networks for Semantic Segmentation

摘要

自我注意机制被广泛应用于各种任务中。它的目的是通过所有位置特征的加权和来计算每个位置的表示。因此,它可以捕捉计算机视觉任务的远程关系。然而,它在计算上很消耗。因为注意图是用w.r.t计算的所有其他位置。在本文中,我们制定了注意机制的期望最大化的方式,并迭代地估计一个更紧凑的一组基地的注意力地图计算。通过在这些基础上加权求和,得到的表示是低秩的,并且从输入中剔除噪声信息。所提出的期望最大化注意(EMA)模块对输入的方差具有鲁棒性,并且在存储器和计算方面也是友好的。此外,我们还建立了基地维护和规范化方法来稳定其训练过程。我们对流行的语义分割基准进行了广泛的实验,包括pascal voc、pascal context和coco stuff,我们在这些基准上达到了新的记录。
在这里插入图片描述

贡献

在这里插入图片描述

火燎的金刚,烟熏的太岁,可惜被吹了

在这里插入图片描述

方法

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值