Attention in CV

1.      Attention in CV

1.1.      CHAM:actionrecognition using convolutional hierarchical attention model.5

Cnn+多层LSTM,soft attention(指可导,hard attention使用强化学习,但是强化学习方差较大)


1.2.      Recursiverecurrent nets with attention modeling for OCR in the wild.6

  Recursive是结构上的循环(节省空间增加深度,类似与ISTN),recurrent是时间上的循环(多层使关注不同任务)


1.3.      Show,attend and tell: neural image caption generation with visual attention.7

  Image caption任务。


1.4.      Recurrentmodels of visual attention.8

  鼻祖。


5.     Yan,S., Smith, J. S., Lu, W. & Zhang, B. CHAM: action recognition usingconvolutional hierarchical attention model.ArXiv Prepr. ArXiv170503146(2017).

6.     Lee,C.-Y. & Osindero, S. Recursive recurrent nets with attention modeling forOCR in the wild. inProceedings of the IEEE Conference on Computer Visionand Pattern Recognition 2231–2239 (2016).

7.     Xu,K. et al. Show, Attend and Tell: Neural Image Caption Generation withVisual Attention. in14, 77–81 (2015).

8.     Mnih,V., Heess, N., Graves, A. & others. Recurrent models of visual attention.inAdvances in neural information processing systems 2204–2212 (2014).


  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值