CVPR 2018:剑桥大学等研发“暴力行为”检测系统,用无人机精准识别人群暴力...

该系统使用研究人员编制的“Aerial Violent Individual”数据集来训练。有25个人被召集来演示打斗、刺杀、射击、踢打和掐脖子等动作,得到2000张带注释的图像。每张图片上一般有2到10个人,因此,这个系统现在还不能用于处理非常大的人群。

c346988d633b8fcf16aaa8acb6e688ee3ba2e40b

AVI数据集中的暴力行为,包括掐脖子,拳打,脚踢,射击和刺杀

当系统需要处理的人数更少时,准确率最高。比如一张图片上只有一个人,系统的准确率为94.1%,但有5个人时,准确率就降到了84%,10个人时准确率降到79.8%。该论文的合作者Amarjot Singh说:“准确性下降主要是因为系统没有检测到其中的一些人。”

ce3bab29335e3d7edfef7d96c04e044f5745b4fc

很难判断这个无人机系统到底有多准确,因为它还没有在真实环境下对普通人群进行测试——测试者仅仅是研究团队招募来的志愿者。也就是说,它是用假装相互打斗的数据训练的,测试也是同样。而且,它是一个研究项目,还不是商业产品。

844874342575f06676e5d73e0b025ce71f2c73cf

左图展示了在人体上注释的14个身体关键点。 右图展示了Parrot AR 无人机捕获数据集中的图像以及几个注释关键点的特写。

当无人机在2米、4米、6米和8米高处时,输入系统的图像也被记录下来。这就能知道它离人群有多近。考虑到无人机飞行的声音很大,在真正的人群和斗殴行为中,这些无人机会在几百英尺之外,一定程度上降低了能见度。

844874342575f06676e5d73e0b025ce71f2c73cf

图:仅使用无人机在2m(第1排),4m(第2排),6m(第3排)和8m(第4排)四个不同高度记录的仅有一个暴力分子的无人机监视系统(DSS)

实时视频分析是使用两个Nvidia Tesla GPU实时地在Amazon的云服务上进行的,而无人机的内置硬件可以指挥其飞行动作。该技术是在本地机器上使用单个Tesla GPU进行训练的。

“该系统以每秒5帧到16帧的速度在空中实时拍摄的影像中检测到暴力分子,最多检测10人,最少2人。”论文指出。

争议:技术被恶意使用的风险

在云端执行推理有潜在的安全和隐私风险,因为要将人们的视频传输到第三方计算系统中。为了减少法律上的麻烦,训练好的神经网络处理无人机在云中接收到的每帧图像,在处理完后就将图像删除。

“这增加了数据安全层,因为我们只是在需要的时候才把数据保存在云上,”剑桥大学博士生Singh说。

使用AI进行监视很令人关注。类似的面部识别技术,如亚马逊的Rekognition服务,已经被美国警方采用。这些系统经常受到高误报率的困扰,或者根本就不准确,所以像这样的技术要和无人机结合还需要一段时间。

有趣的是,谷歌和Facebook最近也发表了一些研究,表明神经网络可以用来跟踪姿势,专家们也对神经网络如何用于数字监视或军事目的提出了担忧。现在,无人机监测暴力分子的研究证明了这是可能的。

研究人员使用 Parrot AR无人机(价格相当便宜)进行实验。运行也很便宜。这个实验在亚马逊的平台上运行,每小时花费0.1美元,所以系统经过训练后的运行不会太贵。

Singh承认,“人们可能会把这个系统用于恶意应用程序,但训练这样的系统将需要大量的数据和大量的资源。我希望有一些监督能够避免滥用这种技术。”

但他认为业余爱好者为了恶意的原因重新编程无人机的担忧是没有根据的。 “购买无人机确实很容易,但设计一种能够识别暴力个体的算法需要一定的专业知识,涉及设计不易获得的深层系统,我不认为这些系统很容易实现,”他说。

研究人员计划在两个音乐节期间在真实环境中测试他们的系统,并监测印度的国界。 如果表现良好,他们希望未来将其商业化。


原文发布时间为:2018-06-7

本文来自云栖社区合作伙伴新智元,了解相关信息可以关注“AI_era”。

原文链接:CVPR 2018:剑桥大学等研发“暴力行为”检测系统,用无人机精准识别人群暴力

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
随着“平安城市”建设的不断推进,公共安全逐渐成为人们关注的热点间 题,税频监控技术也随之得到了越来越广泛的应用,传统的视频监控系统主要提供采集存储功能,这远远无法满足人们对其智能化的需求。要实现智能化的视频监控系统,以下几个关键问题亟需解决:(1)如何快速发现监控视频中的异常行为,及时给出警报,并最大限度地减少误报和漏报现象;(2)如何在多种不利因素下(如羊样本,低分辨率)对可疑目标进行准确的识别分析:(3)在海量数据的情况下,如何确保视频分析系统的实时性及准确性。 近年来,深度学习在机器视觉、语音识别和自然语言处理等多个领域都取得了优异的成绩,这也为智能视频分析技术的发展带来了新的契机。因此,本文基于深度学习的方法对上述相关问题展开研究,主要研究工作与创新如下: 1,针对监控视频中的异常行为尤其是暴力打斗行为难以准确快速发现的问题,提出了一种基于三维卷积深度网络的暴力检测方法。该方法利用大量带标签的视频数握进行有监督的学习,通过将传统二维卷积核扩展为三维来提取视颈中的运动信息,然后综合利用视频的空间信息及运动信息来构建深度神经网络模型,从而实现对监控视须中暴力打斗的检测。由于深层模型端到端学习的特性,所以不需要设计复杂的手工特征来描述运动信息,从而降低了任务的复杂度。实验结果表明,本文提出的方法在单一场景以及人群密集环境下都可以对暴力打斗行为进行准确识别。 2.针对人脸图像在单训练样本下难以被准确识别的问题,提出了一种基于核主成分分析网络(Kernel Principle Component Analysis Setworks,KPCANet)模型的二阶段投票人脸识别方法。该方法在不使用额外样本数据的情况下,利用非监督深层模型KPCANet对分块后的人脸图像进行训练并利用KPCA学习得到的波器进行特征提取,从而保证了提取的特征对光照及遮挡的鲁棒性,同时也消除了人脸局部形变对识别率的影响。本文通过投票的方法融合每一个分块的预测值来得到最后的识别结果,对于单次投票结果不唯一的情况,本文采取了二阶段的投票方法,通过扩大每一块的预测候选集,并对不同的区域赋子不同的权值来得出最后的结果,从而进一步提升了识别的准确率。实验结果表明,该方法在四个公开人脸数据集上都取得了优异的表现,算法准确率优于使用了额外数据集的通用方法,尤其是在非限制人脸数据集LFW-a上,本文提出的方法比sVDL和LGR方法准确率提升了约15%.
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值