视频监控 智能交通 数据集(目标检测、跟踪)

46 篇文章 75 订阅 ¥49.90 ¥99.00

前言

总结一下视频监控的数据集,用于目标检测、跟踪,持续跟新中..........。

一、UA-DETRAC 数据集

UA-DETRAC是一个具有挑战性的真实世界多目标检测多目标跟踪基准。该数据集包括在中国北京和天津的24个不同地点使用Cannon EOS 550D相机拍摄的10小时视频。视频以每秒25帧(fps)的速度录制,分辨率为960×540像素。UA-DETRAC数据集中有超过14万个帧,手动注释了8250个车辆,总共有121万个标记的对象边界框。官方还对目标检测和多目标跟踪中的最新方法以及本网站中详述的评估指标进行基准测试。


官网地址:
The UA-DETRAC Benchmark Suiteicon-default.png?t=N7T8http://detrac-db.rit.albany.edu/
论文地址:
https://arxiv.org/pdf/1511.04136.pdficon-default.png?t=N7T8https://arxiv.org/pdf/1511.04136.pdf使用车辆类别、天气、规模、遮挡率和截断率等属性分析了目标检测和跟踪算法的性能。

  • 车辆类别   我们将车辆分为四类,即轿车、公共汽车、面包车和其他。
  • 天气   我们考虑四类天气条件,即多云、夜间、晴天和雨天。
  • 比例   我们将带注释车辆的比例定义为其面积的平方根(以像素为单位)。我们将车辆分为三个等级:小型(0-50 像素)、中型(50-150 像素)和大型(超过 150 像素)。
  • 遮挡率   我们使用车辆边界框被遮挡的比例来定义遮挡程度。我们将遮挡程度分为三类:无遮挡、部分遮挡和重度遮挡。具体来说,如果车辆的遮挡率在 1%-50% 之间,我们定义为部分遮挡,如果遮挡率大于 50%,我们定义为重遮挡。
  • 截断率   截断率表示车辆部件在框架外的程度,用于训练样本选择。

二、MOT Challenge  数据集

MOT Challenge 是应用在多目标跟踪中最常见的数据集,它专门用于行人跟踪的场景,这些数据集目前已公开提供。对于每个数据集都提供了训练数据和测试数据,其中训练数据提供了目标检测结果和真实的跟踪结果,而测试数据只提供目标检测的结果。

常截至目前,MOT Challenge 数据集包含了MOT15,MOT16/MOT17,MOT20等子数据集。

MOT Challengeicon-default.png?t=N7T8https://motchallenge.net/MOT15 数据集部分视频序列实例:

 MOT15 子数据集是 MOT Challenge 数据集上第一代数据,它包括 2D MOT15数据和 3D MOT15 数据。其中 2D MOT15 数据一共包含了 22 段视频序列(其中11 段视频作为训练使用,另外 11 段视频作为测试使用)。另外 2D MOT15 子数据集使用了 ACF 检测器识别视频序列中的目标来提供公共的检测结果。

MOT16/MOT17 子数据集中行人密度较高,因此该数据集也更具挑战性。这两个数据集包含了相同的 14 段视频序列(其中 7 段视频作为训练使用,另外 7 段视频作为测试使用)。

MOT16 子数据集使用了 DPM 检测器作为公开检测器。而 MOT17 子数据集则提供了三组不同的目标检测(Faster R-CNN,DPM以及 SDP)结果。

MOT20 数据集部分序列实例:


 MOT20 子数据集的场景极其复杂,行人密度极高,更加考验多目标跟踪器的性能。该数据集一共包含 8 段视频序列,使用了 Faster R-CNN 作为检测器来提供公开检测结果。MOT20 数据集部分序列如上图所示,可以看到场景当中的人口密度极大。

参考文章:https://blog.csdn.net/weixin_44936889/article/details/107029111

参考文献:面向复杂场景的多目标跟踪算法研究.胡玉杰.电子科技大学.

目前只找到两个比较好的数据集,后面如果新的发现会持续跟新的,欢迎交流~

  • 23
    点赞
  • 134
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 12
    评论
### 回答1: 基于目标检测智能监控是利用计算机视觉技术来识别图像或视频中的物体,并实现对目标的跟踪和识别。它的做法包括以下步骤: 1. 图像预处理:对输入的图像或视频进行预处理,以减少噪声并增强图像质量。 2. 特征提取:使用特定的算法(如卷积神经网络)来提取图像中的特征,并将这些特征转换为可供计算机识别的形式。 3. 目标检测:使用目标检测算法(如 Faster R-CNN,YOLO 等)来识别图像中的目标,并在图像中标记这些目标。 4. 目标跟踪:使用目标跟踪算法(如颜色跟踪,目标卡尔曼滤波等)来识别图像中目标的运动轨迹。 5. 结果呈现:将处理后的图像呈现给用户,以方便对目标的监控和识别。 通过这些步骤,基于目标检测智能监控系统可以实现对图像或视频中目标的自动识别和跟踪。 ### 回答2: 基于目标检测智能监控是通过使用计算机视觉技术和人工智能算法来实现对场景中目标物体的检测和识别,从而实现对监控场景的智能化管理。 首先,智能监控系统需要使用高质量的监控摄像头来获取场景的视频流,并将视频传输到计算机视觉系统进行处理。 其次,系统需要对视频进行预处理,包括视频去噪、图像增强等操作,以提高目标检测的准确率和稳定性。 然后,系统使用目标检测算法对视频流进行处理,通过提取图像特征和进行模式匹配来识别目标物体。常用的目标检测算法包括基于特征的方法(如Haar Cascade、HOG)和基于深度学习的方法(如SSD、Faster R-CNN)。 接着,系统通过对目标物体进行跟踪和分类,可以对不同类型的目标进行区分和记录。例如,可以对人脸进行识别或者对车辆进行识别和追踪。 最后,系统可以根据实际需求进行进一步的应用,如通过报警系统实时报警、对异常事件进行存档和分析、统计目标物体的数量和行为等。 基于目标检测智能监控可以应用于各个领域,如公共安全、交通管理、商业监控等。它可以提高监控系统的效率和准确性,减少人为因素带来的风险,并为决策提供有力的依据。同时,随着计算机视觉和人工智能技术的不断发展,基于目标检测智能监控也将实现更多的应用和改进。 ### 回答3: 基于目标检测智能监控是利用计算机视觉和人工智能技术来实现对监控画面中目标的自动检测、识别和跟踪。以下是基于目标检测智能监控的实现步骤: 1. 数据采集:通过监控摄像头或其他传感器设备采集监控场景的图像或视频数据。 2. 目标检测模型选择:选择适合目标检测任务的模型,如YOLO、SSD、Faster R-CNN等。这些模型通过训练大量样本数据,掌握目标特征,能够快速、准确地检测目标。 3. 模型训练:使用采集的监控数据作为训练集,通过训练目标检测模型来提高其检测准确性和鲁棒性。训练过程中,需要对数据进行标注,即对图像或视频中的目标进行框选和标注。 4. 目标检测:将训练好的模型部署到智能监控系统中,实时对采集到的监控数据进行目标检测。模型将识别出图像或视频中的目标,并框选标记出它们的位置。 5. 目标识别:基于目标检测的结果,利用图像识别技术对目标进行进一步的识别和分类。可以识别人、车、动物等不同类型的目标,并提供相关的标记信息。 6. 目标跟踪:通过目标识别的结果,对目标进行跟踪,实时追踪目标在画面中的运动轨迹。这样可以实现对目标的行为分析、异常检测等功能。 7. 报警处理:当监控系统发现异常或可疑行为时,会触发报警机制。可以通过声音、图像、短信等方式及时向相关人员发送警报,以便及时采取措施应对。 基于目标检测智能监控系统能够自动化地进行监控画面分析,大大提高了监控系统的效率和准确性。这种技术广泛应用于各个领域,如安防监控、交通管理、工业生产等,为人们提供了更安全、便捷的服务。
评论 12
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

一颗小树x

您的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值