UT-Kinect数据集:通过固定的使用一个固定的Kinect和Kinect for Windows SDK Beta版本的深度相机以15 fps的帧速率收集数据,包含RGB,Depth和3Dskeleton数据。UT-Kinect将样本分为10种日常生活行为,包括 走路,坐下,站起来,拿起,携带,扔,推,拉,挥手,拍手 (walk, sit down, stand up, pick up, carry, throw, push, pull, wave hands, clap hands)等。这些行动由10个不同的人执行,同一行动每个人进行两次。总而言之,该数据集中总共包含199个动作序列。请注意,其中一个原始动作是无效的。UTKinect数据集中的帧大小不同,从5到120帧不等。由于其广泛的类内差异和身体部位的遮挡,UTKinect数据集具有挑战性。例如,一些“拾取东西”动作由左手或右手执行,而其他动作则通过双手完成。一般来说,在动作识别中有两种验证方法,即留一交叉验证(leave-one-out cross validation) 和双交叉验证(2-fold cross validation)。
UT-Kinect
leave-one-out cross validation 方法相关论文[1,2,3]:
1、Liu, J, Shahroudy, A, Xu, D, Wang, G. Spatio‐temporal LSTM with trust gates for 3D human action recognition. In: Computer Vision ‐ ECCV 2016: 14th European Conference, Amsterdam, The Netherlands, October 11‐14, 2