首先安装所需的库和依赖项,确保你已经安装了OpenCV和YOLOv8的相关库和依赖项。你可以使用pip或conda来安装它们。
其次加载YOLOv8模型,使用YOLOv8的训练权重文件和配置文件,加载模型并进行初始化。这可以通过使用适当的库函数来完成,例如OpenCV的dnn.readNetFromDarknet()。
使用OpenCV的cv2.VideoCapture()函数打开要进行目标检测的视频文件。你需要提供视频文件的路径作为参数。
创建输出视频文件:使用OpenCV的cv2.VideoWriter()函数创建一个输出视频文件,用于保存目标检测后的结果。你需要指定输出视频的路径、编解码器、帧率和分辨率等参数。
逐帧进行目标检测,使用一个循环来逐帧读取视频文件,然后将每一帧送入YOLOv8模型进行目标检测。你可以使用OpenCV的cv2.imshow()函数将检测结果显示在屏幕上,或者将其绘制在原始帧上。
将检测结果写入输出视频,将每一帧的检测结果写入输出视频文件。你可以使用OpenCV的cv2.VideoWriter()函数的write()方法来实现。最后释放资源,在处理完所有帧后,记得释放所有打开的视频文件和释放内存等资源。
具体代码如下:
import cv2
from ultralytics import YOLO
def yolo_pre():
yolo=YOLO('./yolov8n.pt')
video_path='C:\\Users\\25055\\Desktop\\测试2.mp4' #检测视频的地址
cap = cv2.VideoCapture(video_path) # 创建一个 VideoCapture 对象,用于从视频文件中读取帧
# 获取视频帧的维度
frame_width = int(cap.get(3))
frame_height = int(cap.get(4))
# 创建VideoWriter对象
fourcc = cv2.VideoWriter_fourcc(*'mp4v')
out = cv2.VideoWriter('C:\\Users\\25055\Desktop\\output.mp4', fourcc, 20.0, (frame_width, frame_height)) #保存检测后视频的地址
while cap.isOpened():
status, frame = cap.read() # 使用 cap.read() 从视频中读取每一帧
if not status:
break
result = yolo.predict(source=frame, save=True)
result = result[0]
anno_frame = result.plot()
#cv2.imshow('行人', anno_frame)
out.write(anno_frame) #写入保存
# 注释的框架是通过调用 result.plot() 获得的,它会在框架上绘制边界框和标签。
# 带注释的框架使用 cv2.imshow() 窗口名称“行人”显示。
if cv2.waitKey(1) & 0xFF == ord('q'):
break
cap.release()
cv2.destroyAllWindows()
print('保存完成')
video_yolo_path='C:\\Users\\25055\Desktop\\output.mp4'
return video_yolo_path