CVPR2018 paper list

CVPR2018 paper list

 

MV-YOLO: Motion Vector-aided Tracking by Semantic Object Detection

MV-YOLO:通过语义对象检测的运动矢量辅助跟踪

抽象对象跟踪是许多可视化分析系统的基石。近年来,虽然在这方面取得了相当大的进展,但在实际视频中进行稳健,高效,准确的跟踪仍然是一项挑战。在本文中,我们提出了一种混合跟踪器,它利用来自压缩视频流的运动信息和作用于解码帧的通用语义对象检测器来构建快速有效的跟踪引擎。所提出的方法与OTB追踪数据集上的几个众所周知的最近追踪器进行比较。结果表明所提出的方法在速度和/或准确性方面的优点。所提出的方法的其他所需特征是其简单性和部署效率,这是因为它由于其他原因而重用系统中可能已经存在的资源和信息。

 

 

Real-Time Human Detection as an Edge Service Enabled by a Lightweight CNN

实时人体检测作为轻量级CNN实现的边缘服务

摘要 - 边缘计算允许在网络边缘的分散节点上执行更多计算任务。今天,许多对延迟敏感的关键任务应用程序可以利用这些边缘设备来缩短时间延迟,甚至可以通过现场存在实现实时的在线决策制定。智能监控中的人体检测,行为识别和预测属于这一类别,在这种情况下,大量视频流数据的转换会花费宝贵的时间,并给通信网络带来沉重的压力。人们普遍认为,视频处理和对象检测是计算密集型且太昂贵而无法由资源有限的边缘设备处理。受深度可分卷积和单发多盒检测器(SSD)的启发,本文介绍了一种轻量级的卷积神经网络(L-CNN)。通过缩小分类器的搜索空间以专注于监视视频帧中的人体对象,所提出的LCNN算法能够以对于边缘设备而言负担得起的计算工作量检测行人。原型已经在使用openCV库的边缘节点(Raspberry PI 3)上实现,使用真实世界的监控视频流可以获得令人满意的性能。实验研究验证了L-CNN的设计,并表明它是在边缘计算密集型应用的有前途的方法。

在本文中,利用Depthwise Separable卷积网络,引入了一个轻量级的CNN,用于在边缘进行人体物体检测。该模型使用包含感兴趣对象的协调的ImageNet和VOC07数据集的部分进行训练。在实验测试中,L-CNN的最大值为2.03,平均值为1.79 FPS,这与Haar Cascaded算法非常快,并且误报率为6.6%。这证实了L-CNN在精确监测任务方面具有良好的准确性和合理的处理速度。此外,通过一些更具挑战性的实验场景,它表明,L-CNN可以处理复杂的情况,其中人的对象不完全在框架中。

 

Cascade R-CNN: Delving into High Quality Object Detection

级联R-CNN:深入高品质对象检测

在对象检测中,需要通过联合(IoU)阈值的交集才能定义正数和负数。用低IoU阈值进行训练的物体检测器,例如, 0.5,通常会产生嘈杂的检测结果。但是,随着IoU阈值的提高,检测性能会降低。造成这种情况的原因有两个:1)由于指数消失的正样本,训练期间过度训练,以及2)检测器最优的输入假设与输入假设的输入假设之间的推理时间不匹配。提出了多级对象检测体系结构Cascade R-CNN来解决这些问题。它由一系列随着IoU阈值增加而训练的检测器组成,以对接近的假阳性依次更具选择性。探测器逐步进行培训,利用观测器的输出是一个良好的分布来训练下一个更高质量的探测器。对逐渐改进的假设进行重采样可以保证所有检测器都有一组正确的等效大小的例子,从而减少过度配合问题。在推断中应用相同的级联程序,使得假设和每个阶段的检测器质量之间更接近匹配。示出了级联R-CNN的简单实现超过具有挑战性的COCO数据集上的所有单模型对象检测器。实验还表明,级联R-CNN可广泛应用于不同的检测器架构,获得与基准检测器强度无关的一致增益。该代码可在https://github.com/zhaoweicai/cascade-rcnn上获得。

在本文中,我们提出了一个多级目标检测框架Cascade R-CNN,用于设计高质量的物体探测器。该架构被证明可以避免训练过度和训练质量不匹配的问题。 Cascade R-CNN在具有挑战性的COCO和流行的PASCAL VOC数据集上的稳固一致的检测改进表明,需要对各种并发因素进行建模和理解,以推进对象检测。该级联RCNN被证明适用于许多对象检测体系结构。我们相信它可能对许多未来的目标检测研究工作有用。

CVPR2018首次引入了一个名为ClipQ(Clip Quality)的评价指标,用于衡量图像检索的质量。传统的图像检索任务通常使用精确率(Precision)和召回率(Recall)作为评估指标,但这两个指标无法完全反映出图像检索结果的质量。 ClipQ主要关注图像检索的相关性和质量。相关性衡量了检索结果与查询的相关程度,质量则表示结果图像与查询图像的视觉质量。传统的评价指标没有考虑到结果图像的质量因素,因此引入ClipQ指标,它综合考虑了图像的相关性和质量,能够更加客观地评估图像检索任务的效果。 ClipQ的计算方法主要依赖于两个因素:应答质量和应答分布。应答质量是通过计算两个图像之间的相似度来衡量的,相似度越高,应答质量越好。应答分布则是通过衡量相似图像在结果集合中的分布情况来计算的,分布越均匀表示应答品质越好。 通过结合应答质量和应答分布,ClipQ可以量化图像检索结果的质量。它能够在保证结果相关性的同时,进一步提高结果图像的质量,从而使得图像检索结果更加准确和精细。 总之,CVPR2018引入的ClipQ评价指标为图像检索任务提供了一种全新的评估方式。它综合考虑了图像的相关性和质量两个因素,可以更加客观地评估图像检索结果的好坏。ClipQ的引入将有助于推动图像检索领域的发展,提高图像检索任务的效果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值