使用 Python 和 OpenCV 库来检测视频中的行人,并在视频中标记出他们的位置和中心点
首先我们加载了用于检测行人的 Haar 级联分类器,并设置了输入和输出视频文件的路径。
然后我们逐帧读取输入视频,将每一帧转换成灰度图像,并使用 Haar 级联分类器检测行人。
对于检测到的行人,我们在其周围绘制了绿色矩形框,并用红色标记出其中心点。
最后,我们将处理后的帧写入到输出视频文件中。
以下是代码实现:
import cv2
# 加载行人检测器
fullboby_cascade = cv2.CascadeClassifier(r'D:\py3.6\Lib\site-packages\cv2\data\haarcascade_fullbody.xml')
# 读取输入视频文件和设置输出视频文件
input_video_path = r'视频路径'
output_video_path = r'保存路径'
cap = cv2.VideoCapture(input_video_path) # 读取视频
fps = cap.get(cv2.CAP_PROP_FPS) #获取视频的帧率
# 获取视频的长宽
width = int(cap.get(cv2.CAP_PROP_FRAME_WIDTH))
height = int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT))
fourcc = cv2.VideoWriter_fourcc(*'mp4v')
out = cv2.VideoWriter(output_video_path, fourcc, fps, (width, height))
# 处理视频并保存处理后的帧
while True:
ret, frame = cap.read()
if not ret:
break
gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)
# 检测行人 函数中的参数可以根据视频中的行人调整
pedestrians = fullboby_cascade.detectMultiScale(gray, scaleFactor=2, minNeighbors=2, minSize=(30,30))
# 在行人位置画框和标点
for (x, y, w, h) in pedestrians:
cv2.rectangle(frame, (x, y), (x + w, y + h), (0, 255, 0), 4)
center_x = x + w // 2
center_y = y + h // 2
cv2.circle(frame, (center_x, center_y), 5, (0, 0, 255), -1)
# 保存处理后的帧
out.write(frame)
# 释放资源
cap.release()
out.release()
上面的代码是一个完整的视频处理流程。在这段代码中,我们使用了 OpenCV 库提供的 Haar 级联分类器来进行行人检测。Haar 级联分类器是一种基于机器学习的对象检测方法,它可以在图像中检测出具有特定特征的对象。在这里,我们使用了预训练好的行人检测器(haarcascade_fullbody.xml),它包含了用于检测行人的特征模式。
同时,我们还利用了 OpenCV 提供的视频处理功能,通过逐帧处理视频并保存处理后的帧,实现了对视频中行人的检测和标记。
希望本文能帮助你了解如何使用Python和OpenCV进行行人视频检测并标记。如果你有任何问题,请随时提问。