使用SSD网络模型进行Tensorflow物体检测(V1.2视频检测)

使用SSD网络模型进行Tensorflow物体检测?(V1.2视频检测)

1.模型的加载和utils库环境的配置?

​ 1.准备好ssd_mobilenet_v1网络模型的frozen_inference_graph.pb和mscoco_label_map.pbtxt文件。(文中所涉及文件和代码均已上传,链接提取码:mztu)

​ 2.配置好utils库文件以及pycache环境,将准备好的label_map_util.py和visualization_utils.py文件以及对应的label_map_util.cpython-36.pyc和visualization_utils.cpython-36.pyc复制粘贴到运行环境目录下。详细图示参考上一篇博客:使用SSD网络模型进行Tensorflow物体检测?v1.1

2.模型的导入和使用?

​ 该部分内容代码的结构可参考上一篇博客内容:使用SSD网络模型进行Tensorflow物体检测?v1.1。需要修改的地方在对视频的读取和写入的代码实现部分。

如何对视频进行帧的切分以及将完成检测后的帧写入新的视频中?

​ 1.对视频读取帧,同时新生成一个原来的视频。思路:原来的视频负责读取每一帧内容进行检测,而将检测标记后的帧图片写入新生成的视频中。

cap = cv2.VideoCapture('绝地逃亡.mov')#原视频路径
ret, image_np = cap.read()#image_np,读取视频的帧信息
out = cv2.VideoWriter('output.mov', -1, cap.get(cv2.CAP_PROP_FPS), (image_np.shape[1], image_np.shape[0]))#Writer(新生成视频的路径+时长(-1:不确定)+帧数+(帧的宽,高))

​ 2.修改session()的循环条件,并将检测标记后的帧写入输出的视频。

  	......(取出模型的网络层代码不变)
    while cap.isOpened():#循环条件为原来的视频是否处于打开的状态
            ret, image_np = cap.read()
            if len((np.array(image_np)).shape) == 0:
                break
         .........(中间喂数据的代码不变)
		out.write(cv2.cvtColor(image_np, cv2.COLOR_RGB2BGR))#写入out,out为新生成的输出视频

​ 3.在结束模型的测试后,关闭视频和窗口。

cap.release()#释放打开的视频
out.release()#释放输出的视频
cv2.destroyAllWindows()

3.–( ̄▽ ̄)*GIf动态效果展示
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Super__Tiger

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值