人群密度不同算法在上海科技A B 不同数据集指标对比

精确的结果,[paper-CSRNet-CVPR2018]是一个更深入的人群计数模型。它使用扩展卷积来避免频繁的池化和上采样。我们提供了一个容易的全面实现[CSRNet-pytorch]。

Datasets

Leaderboard

The section is being continually updated. Note that some values have superscript, which indicates their source.

ShanghaiTech Part A

Year-Conference/JournalMethodsMAEMSEPSNRSSIMParamsPre-trained Model
2016–CVPRMCNN110.2173.221.4CSR0.52CSR0.13MSANetNone
2017–ICIPMSCNN83.8127.4----
2017–AVSSCMTL101.3152.4---None
2017–CVPRSwitching CNN90.4135.0---VGG-16
2017–ICCVCP-CNN73.6106.4----
2018–WACVSaCNN86.8139.2----
2018–CVPRACSCP75.7102.7--5.1MNone
2018–CVPRCSRNet68.2115.023.790.7616.26MSANetVGG-16
2018–CVPRIG-CNN72.5118.2----
2018–CVPRD-ConvNet-v173.5112.3----
2018–CVPRL2R (Multi-task, Query-by-example)72.0106.6---VGG-16
2018–CVPRL2R (Multi-task, Keyword)73.6112.0---VGG-16
2018–IJCAIDRSAN69.396.4----
2018–ECCVic-CNN (one stage)69.8117.3----
2018–ECCVic-CNN (two stages)68.5116.2----
2018–ECCVSANet67.0104.5--0.91MNone
2018–AAAITDF-CNN97.5145.1----
2019–AAAIGWTA-CCNN154.7229.4----
2019–ICASSPASD65.698.0----
2019–CVPRSFCN64.8107.5----

ShanghaiTech Part B

Year-Conference/JournalMethodsMAEMSE
2016–CVPRMCNN26.441.3
2017–ICIPMSCNN17.730.2
2017–AVSSCMTL20.031.1
2017–CVPRSwitching CNN21.633.4
2017–ICCVCP-CNN20.130.1
2018–TIPBSAD20.235.6
2018–WACVSaCNN16.225.8
2018–CVPRACSCP17.227.4
2018–CVPRCSRNet10.616.0
2018–CVPRIG-CNN13.621.1
2018–CVPRD-ConvNet-v118.726.0
2018–CVPRDecideNet21.5331.98
2018–CVPRDecideNet + R320.7529.42
2018–CVPRL2R (Multi-task, Query-by-example)14.423.8
2018–CVPRL2R (Multi-task, Keyword)13.721.4
2018–IJCAIDRSAN11.118.2
2018–AAAITDF-CNN20.732.8
2018–ECCVic-CNN (one stage)10.416.7
2018–ECCVic-CNN (two stages)10.716.0
2018–ECCVSANet8.413.6
2019–ICASSPASD8.513.7
2019–CVPRSFCN7.613.0

2019.05.07 纪念北漂生活的第二站:

拥挤人群计数目前主要有两种实现路径:
1.使用回归的算法思路,直接根据图像回归出拥挤人群密度热图,它的缺点是只能得到场景整体的一个拥挤指数,不能获知人群个体的具体位置,而且这种方法对图像分辨率很敏感。
2.使用目标检测的方法,比如直接使用Faster RCNN检测人,检测后数目标为“人”的个数。这种方法的缺点是在人物相互遮挡的情况下往往性能较差,而人群越拥挤相互遮挡的可能性越大,导致算法使用受限。

深度学习方法
Step1、给定一张图像,用CNNs来估计人数,一般有两种方案:
Step2、一是输入图像,输出区域内估计的人头数目;
Step3、二是输出人群密度图(每平方米多少人),然后再通过积分求总人数。

人群计数与人群密度分析为其中重要的组成内容。人群计数与人群密度分析算法通常的方法大致可以分为三种:
1 、行人检测 :这种方法比较直接,在人群较稀疏的场景中,通过检测视频中的每一个行人,进而得到人群计数的结果,一般是用基于外观和运动特征的boosting,贝叶斯模型为基础的分割,或集成的自顶向下和自底向上的处理,这种方法在人群拥挤情况下不大奏效,需要运用到基于部件模型(如DPM)的检测器来克服人群拥挤遮挡的问题。
2、视觉特征轨迹聚类:对于视频监控,一般用KLT跟踪器和聚类的方法,通过轨迹聚类得到的数目来估计人数。
3、基于特征的回归:建立图像特征和图像人数的回归模型, 通过测量图像特征从而估计场景中的人数。由于拥挤情况下采用直接法容易受到遮挡等难点问题的影响,而间接法从人群的整体特征出发,具有大规模人群计数的能力。

对于之前所做的人群密度、人群计数,进行简单的总结:(2018–CVPR CSRNet为例)

论文:CSRNet: Dilated Convolutional Neural Networks for Understanding the Highly Congested Scenes

CVPR 2018 Paper : https://arxiv.org/abs/1802.10062

Keras实现:https://github.com/DiaoXY/CSRnet

官方Pytorch实现:https://github.com/leeyeehoo/CSRNet-pytorch

回归法对人群计数:根据图像回归人群密度图,直接计算人群数量

通过论文中的对比数据发现,相较于Crowdnet、MCNN、SCNN等方法,CSRnet是目前计算拥挤人群密度的最好的回归方法模型。

CSRnet网络模型主要分为前端和后端网络,采用剔除了全连接层的VGG-16作为CSRnet的前端网络,输出图像的大小为原始输入图像的1/8。卷积层的数量增加会导致输出的图像变小,从而增加生成密度图的难度。所以本文采用空洞卷积神经网络作为后端网络,在保持分辨率的同时扩大感知域, 生成高质量的人群分布密度图。

生成密度图
CSRnet模型生成密度图的方法参考的MCNN(CVPR2016)中的方法。采用脉冲函数卷积高斯核的方式来定义密度图。假设标注点的位置为xi,那么具有N个头的标签可以被表示为。
在这里插入图片描述
这里把它与高斯函数做卷积变成一个连续的函数。但是这种密度函数假设每个xi在图像空间中是独立的。然而事实上,每个xi是在3D场景中一个人群密度的样本,并且由于透视失真,不同样本xi相关的像素与场景中区域的不同尺度一致。于是为了精确估计群体密度,需要考虑透视变换。如果假设在一个人头区域的周围,人群的密度是均匀的,它的最近邻给出了一个对于几何形变的合理的估计。 为了使得密度图能够更好地与不同视角(不同人头大小)且人群很密的图像对应起来,作者对传统的基于高斯核的密度图做了改进,提出了基于几何适应高斯核的密度图,由下式表示:

在这里插入图片描述
通俗理解就是:密度图是由delta脉冲函数与一个高斯函数卷积得来,这里先卷积再求和

在这里插入图片描述

对于每一个人头的xi点,给出了k个近邻距离的的平均值di,于是,与xi相关的像素对应于场景中地面上的一个区域,这个区域的半径与di成正比。于是,为了估计像素xi周围的人群密度,为我们需要把H(x)卷积一个自适应的高斯核的,这个高斯核的的方差σi是可变的并且和di成比例。

总结就是把标签H和一个自适应核的高斯核函数进行卷积,这个高斯核函数的方差为β与xi的K个最近邻平均距离的乘积。

  • 0
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值