论文作者:Ahmed Alia,Mohammed Maree,Mohcine Chraibi,Armin Seyfried
作者单位:Institute for Advanced Simulation, Forschungszentrum Jülich;Department of Computer Simulation for Fire Protection and Pedestrian Traffic, Faculty of Architecture and Civil Engineering, University of Wuppertal;Department of Information Technology, An-Najah National University;Department of Information Technology, Arab American University
论文链接:http://arxiv.org/abs/2310.07416v1
内容简介:
1)方向:微观层面的推动行为分析
2)应用:人群管理、人群流动优化、提升人群体验
3)背景:分析人群中微观层面的推动行为可以提供有价值的人群模式和互动的洞察。手动识别微观层面的推动行为具有挑战性,现有的自动方法无法检测到这种微观行为。
4)方法:本文引入了一种新的自动框架,用于在人群视频中识别微观层面的推动行为。该框架包括两个主要组成部分:特征提取和视频标注。在特征提取组件中,开发了一种基于Voronoi的方法,用于确定输入视频中与每个人相关的局部区域。然后,将这些区域输入EfficientNetV1B0卷积神经网络,以提取每个人随时间变化的深层特征。在第二个组件中,使用具有Sigmoid激活函数的全连接层来分析这些深层特征,并对视频中涉及推动的个体进行注释。
5)结果:该框架在使用六个真实世界实验创建的新数据集上进行训练和评估,并包括相应的真实情况。实验结果表明,该框架优于用于比较分析目的的七种基准方法。