动作识别论文阅读20191129

A Closer Look at Spatiotemporal Convolutions for Action Recognition

研究机构:facebook的论文
主要思想与创新:实验上论证R(2+1)D比C3D会更好,相同的参数,卷积效果更好

1 针对视频任务(可以看做是有关联信息的3D图像),单用2D卷积网络不能捕捉时间上的推理信息(图1(a)),采用3D卷积网络还是能达到比较好的效果,毕竟卷积了前后几个slice的信息(图1(d)),但是3D网络不可避免会多了很多参数,有计算冗余的缺点。

2 在性能和模型大小的权衡之下,论文提出第一版改进模型:2D+3D,称之为混合卷积(MC,mixed convolution),一共有两种模式(图1(b)(c)),这样做的好处:减少参数,保持性能。论文给出了数据,相对于2D网络参数增加了3-4%,相对于3D网络参数为三分之一,但可以达到接近3D卷积网络的效果。
3在2的基础上,论文又提出了升级版(图1(e)),(2+1)D,将3D的卷积拆分成两个既分开又连续的操作,所谓分开是指分两步进行提取信息(图2),第一步采用2D卷积提取的是空间上的信息,第二步采用1D卷积将上一步提取的空间上的信息给关联起来。所谓连续是指先空间卷积再时间卷积,以此结构实现对于时空信息提取更好的非线性操作,增加模型的复杂度,可能会拟合得更加贴切。另外还有个好处就是,这样相比3D卷积参数少,而且更加容易优化,收敛效果更好。

结果和优点

top1:71~% recognition accuracy
在底层对时间运动信息编码的效果要好于在顶层对时间运动信息编码

知识点
  • 几个网络模型图
  • 对R(2+1)D的解释
  • 结果对比

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Elm7s9ou-1575035464029)(https://img2018.cnblogs.com/blog/1189717/201911/1189717-20191129211805542-909061453.png)]

###自己的思考

这个R(2+1)D的卷积,需要32帧的图片输入,感觉计算量还是很大的,不会是一个小数。

参考博客
代码和数据

代码:https://github.com/MRzzm/action-recognition-models-pytorch
数据:http://r
read_date:20191129

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值