paper read weekly(two)

  • 丫头姐姐要生小宝宝了,愿母女一切顺利平安,丫头辛苦了
  • 公司出了新产品,老板一激动,又给我们灌了一个多小时的鸡汤。还给每个人留下了一个必须回答的哲学问题——你快乐吗???
  • 去清华听了4位参与CVPR2017同学的论文分享,感触颇深

本周工作很紧,但忙里偷闲,还是看到了几篇耳目一新,有所启发的paper。

我们先来看看网络长啥样:

这里写图片描述

  • 熟悉的skip connection结构
  • 熟悉的hourglass沙漏block
  • 熟悉的Resblock
  • 还有element-wise product
    这里写图片描述

    element-wise product的乘式因子就是attention map和feature map了。重点就是这个attention map的获取。它就是由下图的soft Mask Branch完成的。可以看到,这个结构和resblock很像,亮点在于他将hourglass和resblock结合了起来,使得无论是分类、检测还是识别问题都融入了attention,从而能更简单更高效的完成这些任务。

    这里写图片描述

个人insights:

  • attention map和feature map的融合一如SENet(ImageNet 2017 竞赛 Image Classification 任务的冠军网络)里的特征提取融合,对feature map的使用不再局限于简单的forward或者skip connetion,而是引入了对feature map重要性的考量,使得特征运用更加的高效。特征提取是基础,如何后续融合特征也是保证特征提取器效果重要trick。
  • 回归到自己的工作上,attention机制是否可以用在depth estimation中呢?目前还没想好,但可以肯定的是,attetion map和feature的element-wise product是可以吸取的,而且能肯定的是,类似这特征融合的机制是通用的。

特征融合还有一种方法就是局部特征的拼接融合了。先来一张图感受下:

这里写图片描述
[图片来自于Fully Convolutional Instance-aware Semantic Segmentation]
,有兴趣的同学自己去看吧,我贴这张图只是示意,不打算讲这篇paper啦。

局部特征拼接的优势在于,局部的精细化会做的更好,而且这对精细化分类也是有启发的。当然,难点在于如何完美拼接了。之前也一直在思考这一点,也攒了几篇paper,接下里就要好搬砖,要是效果不错,再来分享自己的代码心得了。


最后,这周末去听了cvpr的报告,讲讲感触:

  • 怎么都是和我一样的瘦子,尤其是Momenta的总监孙刚老师,比我还瘦吧
  • 顶级paper的工作都缺不了很solid的积淀,还是要多看paper,多思考
  • 无论做什么task,在迁移时更多的应该是思考task之间本质的区别所在,然后将这种区别线索反应到所设计的网络结构中,而不是简单粗暴的改输出、改kernel,加减层。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值