论文阅读《Long-term Temporal Convolutions for Action Recognition》
标签(空格分隔): ActionRecognition ReadingNote
project page :http://www.di.ens.fr/willow/research/ltc
gayhub: https://github.com/gulvarol/ltc
现有方法一般采用CNN来获取动作表达,但是一般来说从较少的视频帧中,很难完整的对一个动作建模。
本文工作:
- LTC(long-term temporal convolutions)
- 研究了不同的low-level表达(比如视频原始像素、光流向量)的影响
- 强调高质量光流估计的重要性。
实验结果:UCF101 (92.7%) and HMDB51 (67.2%)。
Intro
Related Work
LONG-TERM TEMPORAL CONVOLUTIONS
网络结构
The network has 5 space-time convolutional layers with 64, 128, 256, 256 and 256 filter response maps, followed by 3 fully connected layers of sizes 2048, 2048 and number of classes.
卷积核3x3x3,每个卷积层都采用ReLU激活函数,以及max-pooling(除了第一层是2x2x1,其他都是2x2x2)。三个维度都padding一个像素,卷积stride 1 for conv,2 for pooling。前两个fc层采用dropout。fc层结束后都接上ReLU层,最后采用softmax层输出类别分数。
网络输入
从C3D出发,首先对比16帧和60帧的输入。
系统分析输入信号的时空分辨率增长的影响(两个方面motion/appearance)。
16帧:112x112x16 crop,171x128像素
60帧:58x58x60 crop,89x67像素
60帧的网络,5个卷积层分别对应60、30、15、7、3帧输入。
16:16、8、4、2、1.
The space-time resolution for the outputs of the fifth convolutional layers is 3×3×1