将darkflow和yolo结合实现实时相机识别

文章讲述了在Tensorflow环境中实现摄像头识别但遇到帧率低的问题,作者尝试在PyCharm中运行程序以优化。过程中遇到了tensorflow.contrib模块缺失和tf.train.RMSPropOptimizer属性不存在的错误。通过下载tf-slim库和调整代码以适应Tensorflow新版本,最终成功解决了问题并使程序正常运行。
摘要由CSDN通过智能技术生成

在上一步中,已经实现了在tensorflow环境中的摄像头识别,但是帧率太低,只有0.5,所以这次在pycharm中运行程序,首先,在该文件下,新建一个测试.py文件

 再将程序导进去

 

import cv2
from darkflow.net.build import TFNet
import numpy as np
import time

option = {
    'model': 'cfg/yolo.cfg',
    'load': 'bin/yolo.weights',
    'threshold': 0.3,
    'gpu': 0.7
}

tfnet = TFNet(option)

capture = cv2.VideoCapture(0)
capture.set(cv2.CAP_PROP_FRAME_WIDTH, 1920)
capture.set(cv2.CAP_PROP_FRAME_HEIGHT, 1080)
colors = [tuple(255 * np.random.rand(3)) for i in range(10)]  # 随机创建10中颜色,RGB形式
# 当视频打开时,进行处理
while capture.isOpened():
    stime = time.time()  # 计算起始时间
    ret, frame = capture.read()  # 读取每一帧,第一个参数是bool型的ret,其值为True或False,代表有没有读到图片,第二个参数是当前帧图像
    if ret:
        results = tfnet.return_predict(frame)  # 送入网络进行预测
        # 将 colors results 进行打包
        for color, result in zip(colors, results):
            tl = (result['topleft']['x'], result['topleft']['y'])
            br = (result['bottomright']['x'], result['bottomright']['y'])
            label = result['label']
            frame = cv2.rectangle(frame, tl, br, color, 3)
            frame = cv2.putText(frame, label, tl, cv2.FONT_HERSHEY_COMPLEX, 1, color, 1)
        cv2.imshow('frame', frame)  # 显示当前帧
        print('FPS {:.1f}'.format(1 / (time.time() - stime)))  # 计算帧率
        # 按 q 键退出
        if cv2.waitKey(1) & 0xFF == ord('q'):
            break
    else:
        capture.release()
        cv2.destroyAllWindows()
        break

在运行程序中会出现No module named 'tensorflow.contrib' 的错误,参考

(26条消息) Error: No module named ‘tensorflow.contrib‘_tf slim pip_Yore_999的博客-CSDN博客

下载,替换。发现依旧报错,所以在pycharm设置中下载tf-slim文件解决。

再次运行程序报错module 'tensorflow._api.v2.train' has no attribute 'RMSPropOptimizer'

这是因为TensorFlow 2.0以上的版本已经移除 tf.train.NewCheckpointReader 了。参考这篇:(26条消息) AttributeError: module ‘tensorflow._api.v2.train‘ has no attribute ‘NewCheckpointReader‘解决方案_module 'tensorflow._api.v2.train' has no attribute_小白白程序员的博客-CSDN博客

 得到解决方法。将报错的地方依次替换即可,替换到最后,程序即可正常运行。

# reader = tf.train.NewCheckpointReader(filename)
reader = tf.compat.v1.train.NewCheckpointReader(filename)

 

YOLO(You Only Look Once)是一种基于深度学习的目标检测算法,可以用于实现人脸识别和目标跟踪。下面分别介绍如何使用YOLO进行人脸识别和目标跟踪。 1. 人脸识别: - 准备训练数据:收集包含人脸的图像数据集,并进行标注,标注每个人脸的边界框位置。 - 训练YOLO模型:使用收集的数据集训练YOLO模型,通过学习人脸的特征和位置信息,使模型能够准确地检测和识别人脸。 - 进行人脸检测:使用训练好的YOLO模型对输入图像进行人脸检测,得到人脸的边界框位置。 - 人脸识别:对于检测到的人脸,使用人脸识别算法(如基于深度学习的人脸特征提取和匹配)进行人脸识别,将其与已知的人脸进行比对和匹配。 2. 目标跟踪: - 准备训练数据:收集包含目标对象(如车辆、行人等)的视频序列数据集,并进行标注,标注目标对象在每个帧中的边界框位置。 - 训练YOLO模型:使用收集的数据集训练YOLO模型,通过学习目标对象的特征和位置信息,使模型能够准确地检测和跟踪目标对象。 - 进行目标检测和跟踪:使用训练好的YOLO模型对视频帧进行目标检测,得到目标对象的边界框位置。然后,利用跟踪算法(如卡尔曼滤波器、光流法等)根据前一帧的跟踪结果,结合当前帧的检测结果,进行目标跟踪,更新目标对象的位置信息。 需要注意的是,YOLO是一种通用的目标检测算法,可以用于检测和识别多个类别的目标,包括人脸。对于人脸识别和目标跟踪任务,可以根据具体需求进行数据准备、模型训练和算法调整等工作。此外,还可以使用其他深度学习模型和算法(如基于卷积神经网络的人脸识别模型、单目标跟踪算法等)来完成人脸识别和目标跟踪任务。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值