识别算法 学习链接

1.reading papers

(人体行为识别特征点提取小综述)   与human activity recognition特征提取相关,ing...)  (Learning hierarchical invariant spatio-temporal features for action recognition with independent subspace analysis)  (Attention Based Detection and Recognition of Hand Postures Against Complex Backgrounds) 

2.Activity Recognition行为识别--Rachel Zhang的专栏


3.动作识别之STIP (Space-Time Interest Points)


4.几个视频中行为识别的底层特征及代码


5.阅读笔记


6.Deeply-Learned Slow Feature Analysis for Action Recognition(泛读)


7.论文选读Range-Sample Depth Feature for Action Recognition

-------------------------------------------------------------------------------------------------------------------------------------

本人总结的做计算机视觉中人体行为识别的入门文章和实验:

文章1:Dollár,P., et al. Behavior recognition via sparse spatio-temporal features.  Visual Surveillance and PerformanceEvaluation of Tracking and Surveillance, 2005. 2nd Joint IEEE InternationalWorkshop on, 2005. IEEE, 65-72.

网址:http://vision.ucsd.edu/~pdollar/research.html#BehaviorRecognitionAnimalBehavior

文章2:Recognising action as clouds of space-time interest points,Computer Vision and Pattern Recognition,2009. CVPR 2009.

网址:http://www.eecs.qmul.ac.uk/~bregonzio/

文章3:Action snippets: How many frames does human actionrecognition require? Computer Vision and Pattern Recognition, 2008. CVPR 2008.

网址:http://www.pudn.com/downloads467/sourcecode/math/detail1961691.html(这是向作者要的)

文章4:Action Recognition by Dense Trajectories,CVPR2011

网址:http://lear.inrialpes.fr/people/wang/dense_trajectories

希望同行完成实验能明白video-level,frame-level以及real-time的行为识别的含义。


-------------------------------------------------------------------------------------------------------------------------------------

1.著作权归作者所有。

商业转载请联系作者获得授权,非商业转载请注明出处。
作者:Xiaolong Wang
链接:http://www.zhihu.com/question/33272629/answer/60279003
来源:知乎

    有关action recognition in videos, 最近自己也在搞这方面的东西,该领域水很深,不过其实主流就那几招,我就班门弄斧说下video里主流的:Deep Learning之前最work的是INRIA组的Improved Dense Trajectories(IDT) + fisher vector, paper and code: LEAR - Improved Trajectories Video Description基本上INRIA的东西都挺work 恩..然后Deep Learning比较有代表性的就是VGG组的2-stream:http://arxiv.org/abs/1406.2199其实效果和IDT并没有太大区别,里面的结果被很多人吐槽难复现,我自己也试了一段时间才有个差不多的数字。然后就是在这两个work上面就有很多改进的方法,目前的state-of-the-art也是很直观可以想到的是xiaoou组的IDT+2-stream:http://wanglimin.github.io/papers/WangQT_CVPR15.pdf还有前段时间很火,现在仍然很多人关注的G社的LSTM+2-stream: http://static.googleusercontent.com/media/research.google.com/zh-CN//pubs/archive/43793.pdf然后安利下zhongwen同学的paper:http://www.cs.cmu.edu/~zhongwen/pdf/MED_CNN.pdf最后你会发现paper都必需和IDT比,然后很多还会把自己的method和IDT combine一下说有提高 恩..


著作权归作者所有。
商业转载请联系作者获得授权,非商业转载请注明出处。
作者:水哥
链接:http://www.zhihu.com/question/33272629/answer/60163859
来源:知乎

视频方面的不了解,可以聊一聊静态图像下的~
[1] Action Recognition from a Distributed Representation of Pose and Appearance, CVPR,2010
[2] Combining Randomization and Discrimination for Fine-Grained Image Categorization, CVPR,2011
[3] Object and Action Classification with Latent Variables, BMVC, 2011
[4] Human Action Recognition by Learning Bases of Action Attributes and Parts, ICCV, 2011
[5] Learning person-object interactions for action recognition in still images, NIPS, 2011
[6] Weakly Supervised Learning of Interactions between Humans and Objects, PAMI, 2012
[7] Discriminative Spatial Saliency for Image Classification, CVPR, 2012
[8] Expanded Parts Model for Human Attribute and Action Recognition in Still Images, CVPR, 2013
[9] Coloring Action Recognition in Still Images, IJCV, 2013
[10] Semantic Pyramids for Gender and Action Recognition, TIP, 2014
[11] Actions and Attributes from Wholes and Parts, arXiv, 2015
[12] Contextual Action Recognition with R*CNN, arXiv, 2015
[13] Recognizing Actions Through Action-Specific Person Detection, TIP, 2015

2010之前的都没看过,在10年左右的这几年(11,12)主要的思路有3种:1.以所交互的物体为线索(person-object interaction),建立交互关系,如文献5,6;2.建立关于姿态(pose)的模型,通过统计姿态(或者更广泛的,部件)的分布来进行分类,如文献1,4,还有个poselet上面好像没列出来,那个用的还比较多;3.寻找具有鉴别力的区域(discriminative),抑制那些meaningless 的区域,如文献2,7。10和11也用到了这种思想。
文献9,10都利用了SIFT以外的一种特征:color name,并且描述了在动作分类中如何融合多种不同的特征。
文献12探讨如何结合上下文(因为在动作分类中会给出人的bounding box)。
比较新的工作都用CNN特征替换了SIFT特征(文献11,12,13),结果上来说12是最新的。

静态图像中以分类为主,检测的工作出现的不是很多,文献4,13中都有关于检测的工作。可能在2015之前分类的结果还不够promising。现在PASCAL VOC 2012上分类mAP已经到了89%,以后的注意力可能会更多地转向检测。

视频的个别看过几篇,与静态图像相比,个人感觉最大的区别在于特征不同。到了中层以后,该怎么做剩下的处理,思路还是差的不远。


著作权归作者所有。
商业转载请联系作者获得授权,非商业转载请注明出处。
作者:黄东程
链接:http://www.zhihu.com/question/33272629/answer/60299312
来源:知乎

这个是2014年CVPR关于行为识别的的tutorial,你把ppt和对应的论文过一遍,应该就有大致的了解了
CVPR 2014 Tutorial on Emerging Topics in Human Activity Recognition

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值