使用SSD网络模型进行Tensorflow物体检测?(V1.2视频检测)
1.模型的加载和utils库环境的配置?
1.准备好ssd_mobilenet_v1网络模型的frozen_inference_graph.pb和mscoco_label_map.pbtxt文件。(文中所涉及文件和代码均已上传,链接提取码:mztu)
2.配置好utils库文件以及pycache环境,将准备好的label_map_util.py和visualization_utils.py文件以及对应的label_map_util.cpython-36.pyc和visualization_utils.cpython-36.pyc复制粘贴到运行环境目录下。详细图示参考上一篇博客:使用SSD网络模型进行Tensorflow物体检测?v1.1
2.模型的导入和使用?
该部分内容代码的结构可参考上一篇博客内容:使用SSD网络模型进行Tensorflow物体检测?v1.1。需要修改的地方在对视频的读取和写入的代码实现部分。
如何对视频进行帧的切分以及将完成检测后的帧写入新的视频中?
1.对视频读取帧,同时新生成一个原来的视频。思路:原来的视频负责读取每一帧内容进行检测,而将检测标记后的帧图片写入新生成的视频中。
cap = cv2.VideoCapture('绝地逃亡.mov')#原视频路径
ret, image_np = cap.read()#image_np,读取视频的帧信息
out = cv2.VideoWriter('output.mov', -1, cap.get(cv2.CAP_PROP_FPS), (image_np.shape[1], image_np.shape[0]))#Writer(新生成视频的路径+时长(-1:不确定)+帧数+(帧的宽,高))
2.修改session()的循环条件,并将检测标记后的帧写入输出的视频。
......(取出模型的网络层代码不变)
while cap.isOpened():#循环条件为原来的视频是否处于打开的状态
ret, image_np = cap.read()
if len((np.array(image_np)).shape) == 0:
break
.........(中间喂数据的代码不变)
out.write(cv2.cvtColor(image_np, cv2.COLOR_RGB2BGR))#写入out,out为新生成的输出视频
3.在结束模型的测试后,关闭视频和窗口。
cap.release()#释放打开的视频
out.release()#释放输出的视频
cv2.destroyAllWindows()
3.–( ̄▽ ̄)*GIf动态效果展示