本发明属于图像处理技术领域,特别涉及一种视频人体行为识别方法,可用于智能视频监控、人机交互、视频检索。
背景技术:
随着计算机学科与人工智能的发展和应用,视频分析技术迅速兴起并得到了广泛关注。视频分析中的一个核心就是人体行为识别,行为识别的准确性和快速性将直接影响视频分析系统后续工作的结果。因此,如何提高视频中人体行为识别的准确性和快速性,已成为视频分析系统研究中的重点问题。
目前,典型的视频人体行为识别方法主要有:时空兴趣点、密集轨迹等。其中:
时空兴趣点,是通过检测视频中的角点、提取角点的特征进行人体行为识别,但是一部分角点是由背景噪声产生,不但会影响最后的结果,还会降低识别的运行速度。
密集轨迹,是先对视频每一帧进行多个尺度上的密集采样,然后对采样的点进行跟踪得到轨迹,再提取轨迹的特征进行行为识别。但是该方法的计算复杂度高,并且产生的特征维度高,会占用大量的内存,很难做到实时识别。
技术实现要素:
本发明的目的在于针对上述已有技术中实时性差的问题,提出一种基于姿态估计的人体行为识别方法,以提高人体行为识别的速度。
本发明的技术思路是:通过估计视频中人体的姿态,得到每一帧人体关节点的位置,利用人体关节点的位置变化量分析人体的动作,从而快速地进行人体行为识别。
根据上述思路,本发明的实现方案包括如下:
(1)提取视频中每帧人体关节点位置坐标:
(1a)利用Open-pose方法对视频中每帧人体进行姿态估计,得到人体脖子、胸部、头部、右肩、左肩、右臀部、左臀部、右手肘、左手肘、