Princeton Tracking Benchmark:http://tracking.cs.princeton.edu/dataset.html
深度传感器的日益普及使得可以容易地获得可靠的深度,深度信息可用于防止模型漂移和处理遮挡。普林斯顿(Princeton)大学提供RGB-D相关数据集以及RGB-D跟踪的基准算法比较,用于RGB和RGB-D对象的跟踪算法的在线评估,构建了一个具有高度多样性的100个RGB-D视频(大小为10G左右)的统一基准数据集,使用2D或3D模型提出了不同种类的RGB-D跟踪算法,并提出了各种算法与RGB或RGB-D输入的定量比较。
下图是各种算法在Princeton Tracking Benchmark RGB-D数据集的测试。
1. 算法1
[24] Ye Liu et al, Context-aware 3-D Mean-shift with Occlusion Handling for Robust Object Tracking in RGB-D Videos IEEE Trans. on Multimedia
2. 算法2
[4]Ugur Kart, Joni-Kristian Kamarainen, Jiri Matas, How to Make an RGBD Tracker? ECCV VOT Workshop 2018
3. 算法3(粒子滤波框架)
[18]K. Meshgi, S. Maeda, S. Oba, H. Skibbe, Y. Li, and S. Ishii, Occlusion aware particle filter tracker to handle complex and persistent occlusions CVIU, 2015
4. 算法4
[1]Adel Bibi, Tianzhu Zhang, and Bernard Ghanem, 3D Part-Based Sparse Tracker with Automatic Synchronization and Registration Conference on Computer Vision and Pattern Recognition (CVPR2016)
5. 算法5
[12] S. Song and J. Xiao, Tracking Revisited using RGBD Camera: Baseline and Benchmark,
12a. RGBD HoG detection+ optical flow + Occlusion handle.
6. 算法6(相关滤波)
[11]S. Hannuna, M. Camplani, J. Hall, M. Mirmehdi, D. Damen, T. Burghardt, A. Paiement, L. Tao, DS-KCF: A real-time tracker for RGB-D data Journal of Real-Time Image Processing
总结:Princeton Tracking Benchmark RGB-D数据集主要是有行人、动物、刚性物体三种类型,算法1、2、4打算找下文章看下,算法3是基于粒子滤波框架、算法5估计是传统多特征跟踪、算法6是基于KCF(核相关滤波)框架。后面还有很多算法不是近三年提出来的paper,排名也不高。算法4在行人类型上的正确率是排名第一,在阅读文章时可重点了解。
各种算法在Princeton Tracking Benchmark RGB-D数据集的测试。
算法1、2、4找文章阅读,感觉参考价值不大,没有用到深度学习,难以和三维视觉信息结合。
算法1、2、4均没有用到深度学习,这个数据集是在ICCV2013发布的,算法1、2相关滤波框架,算法4粒子滤波框架,自动同步的稀疏跟踪。