【一步一步的积累】Auto-context and Its Application to High-level Vision Tasks

(CVPR 2008)  Auto-context and Its Application to High-level Vision Tasks

不论是分割还是分类,context都是很有用的信息。尤其是深度学习流行以后,能自动去挖掘一些context的内部相关性,所以对于如何引入尽可能多的context,成为了一个研究方向。这篇文章虽然和深度学习无关,但是有很多宝贵的观点。

作者认为

  1. Unlike many the energy minimization algorithms where the modeling and computing stages are separated, auto-context uses the same procedures in the two. 这是和传统的方法做对比的,对于深度学习来说,现在也是揉在一块了。因此这点不再赘述。
  2. 每一个被分类的像素除了常规的小领域信息,还会有更大领域的label信息,并且这些label信息还在一次一次的迭代中越来越准确。所以不同于一般的“图像patch + 标注”的数据,该文使用的是“图像patch + label的possiblity map + 标注”作为数据
简单说说这篇文章的实现:
  1. 以target pixel为中心,把领域patch和一个假设label是uniform分布的概率图作为特征(图中为全灰色)进行训练(文中使用boosting的方法,其实用什么样的分类器并没有关系)
  2. 生成的新的label的概率图,这个概率图的准确性取决于纯appearance的分类能力,因此也不能太差。
  3. 进行迭代,再次将图像patch和新生成的概率图作为输入,然后进行训练。直到程序收敛为止
  4. 整个过程如下图:

我觉得这篇文章的想法虽然不难,但是具有很有意思的论点和很强的启发性:

  1. label信息的使用。作者认为“label (in probabilities) contexts greatly improve the segmentation/labeling result.”。更甚于之前Wolf and Bileschi认为label context可能会achieve the same effect as using image appearance, in object detection. 我个人的看法是,label的概率图的迭代过程如同信息的提取过程,如果使用在深度学习中,可以辅助提取大context的信息关系,减少网络训练难度,如本文标题所述,这是一个auto的过程。
  2. 同时作者也给出了证明,说明了这样的迭代是保证了error的下降的。
综上,在实际的项目中,使用过在分类结果上继续分类的做法,但是由于当时不知道如何保证其收敛性就中断了,另外,当时单纯的依靠label possibility map而放弃了appearance的输入,导致最后结果偏移很严重。因此,鉴于这篇文章的启发,可以重新将这个想法执行,测试一下实践中是否能满足预期效果。


  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值