【显著性检测】PiCANet: Learning Pixel-wise Contextual Attention for Saliency Detection【论文笔记】

论文链接

主要思想:如果能够识别相关的上下文区域并为每个像素构建信息性上下文特征,则可以做出更好的检测结果。

我们的方案:提出了Pixel-wise Contextual Attention network (PiCANet),来学习每个像素的信息性上下文特征,然后将其嵌入到UNet中,PiCANet整合全局上下文和多尺度的局部上下文来提升显著性检测性能。

模型结构:PiCANet的部分看得我脑壳痛,大概理解的是,对特征进行按方向的LSTM,然后就记忆了其他方向的信息,从而知道了上下文,最后一层接卷积层得到D=HxW的特征层,表示的是权重,然后对原本特征进行Mask,即可得到所谓的Attened Contextual Feature Map。

 我理解的方式是:在UNet的思路上,在decoder时候,原本只是结合原始的特征,现在再进行一下PiCANet,除了原本的特征,还利用了,全局或局部的语义信息。从而进行了提升。

  • 2
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值