Attention

SNAL Attention for landmark Detection

基本结构简介

模型的backbone有四个SANL attention结构,这些结构的spatial attention map自与 GCAM。模型既可以用于分类也可以用于关键点检测。总体来说是一种基于热力图的attention方法。

Attention 种类

视觉attention主要分为两类,一种是相关attention,根据feature map与关键点直接框出,比如Fashionnet。第二种是使用热力图,比如本网络。

SNAL attention结构:

 

 

其中X是输入,M是attention map, 计算有矩阵点积和矩阵乘法,矩阵加法。

 

视觉attention

是一种基于像素对区域过滤的一种算法,对于feature map的激活权重一般是根据feature map的激活值加总。

残差学习机制

传统的学习机制如下

Yi= 1C(X)jf(Xi , Xj)g(Xj)

 

然后需要将权重与Y相乘然后再相加即可。g是计算权重函数。

然而本文中的残差学习规则更加如下

 

 

其中M是attention map, h 是使用与X 和M的转换函数。

其中f 函数为相似度函数可以写成

 

landmark detect

landmark detect 的当前趋势是,从与关键点相关的热力图中进行预测,所以预测几个关键点就需要几个热力图。

Loss函数

与以往的loss使用mse或者mae不同,本文loss使用的是交叉熵 

 

其中Cvis表示是否可见,tijc 地ij的真实landmark点,x则表示预测的点。

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值