项目场景:
import numpy as np
import cv2
import os
import time
def video_demo():
# 加载已经训练好的模型路径,可以是绝对路径或者相对路径
weightsPath = "weights/yolov3.weights"
configPath = "config/yolov3.cfg"
labelsPath = "config/coco.names"
# 初始化一些参数
LABELS = open(labelsPath).read().strip().split("\n") # 物体类别
COLORS = np.random.randint(0, 255, size=(len(LABELS), 3), dtype="uint8") # 颜色
boxes = []
confidences = []
classIDs = []
net = cv2.dnn.readNetFromDarknet(configPath, weightsPath)
# 读入待检测的图像
# 0是代表摄像头编号,只有一个的话默认为0
capture = cv2.VideoCapture(0)
while (True):
ref, image = capture.read()
(H, W) = image.shape[:2]
# 得到 YOLO需要的输出层
ln = net.getLayerNames()
ln = [ln[i - 1] for i in net.getUnconnectedOutLayers()]
# 从输入图像构造一个blob,然后通过加载的模型,给我们提供边界框和相关概率
blob = cv2.dnn.blobFromImage(image, 1 / 255.0, (416, 416), swapRB=True, crop=False)
net.setInput(blob)
layerOutputs = net.forward(ln)
# 在每层输出上循环
for output in layerOutputs:
# 对每个检测进行循环
for detection in output:
scores = detection[5:]
classID = np.argmax(scores)
confidence = scores[classID]
# 过滤掉那些置信度较小的检测结果
if confidence > 0.5:
# 框后接框的宽度和高度
box = detection[0:4] * np.array([W, H, W, H])
(centerX, centerY, width, height) = box.astype("int")
# 边框的左上角
x = int(centerX - (width / 2))
y = int(centerY - (height / 2))
# 更新检测出来的框
boxes.append([x, y, int(width), int(height)])
confidences.append(float(confidence))
classIDs.append(classID)
# 极大值抑制
idxs = cv2.dnn.NMSBoxes(boxes, confidences, 0.2, 0.3)
if len(idxs) > 0:
for i in idxs.flatten():
(x, y) = (boxes[i][0], boxes[i][1])
(w, h) = (boxes[i][2], boxes[i][3])
# 在原图上绘制边框和类别
color = [int(c) for c in COLORS[classIDs[i]]]
cv2.rectangle(image, (x, y), (x + w, y + h), color, 2)
text = "{}: {:.4f}".format(LABELS[classIDs[i]], confidences[i])
cv2.putText(image, text, (x, y - 5), cv2.FONT_HERSHEY_SIMPLEX, 0.5, color, 2)
cv2.imshow("Image", image)
# 等待30ms显示图像,若过程中按“ESC”退出
c = cv2.waitKey(30) & 0xff
if c == 27:
capture.release()
break
video_demo()
python+OpenCV+YOLOv3打开笔记本摄像头模型检测
def __init__(self,parent=None):
super().__init__(parent) #父类的构造函数
self.timer_camera = QtCore.QTimer() #定义定时器,用于控制显示视频的帧率
self.cap = cv2.VideoCapture() #视频流
self.CAM_NUM = 0 #为0时表示视频流来自笔记本内置摄像头
self.set_ui() #初始化程序界面
self.slot_init() #初始化槽函数
'''程序界面布局'''
def set_ui(self):
self.__layout_main = QtWidgets.QHBoxLayout() #总布局
self.__layout_fun_button = QtWidgets.QVBoxLayout() #按键布局
self.__layout_data_show = QtWidgets.QVBoxLayout() #数据(视频)显示布局
self.button_open_camera = QtWidgets.QPushButton('打开相机') #建立用于打开摄像头的按键
self.button_close = QtWidgets.QPushButton('退出') #建立用于退出程序的按键
self.button_open_camera.setMinimumHeight(50) #设置按键大小
self.button_close.setMinimumHeight(50)
self.button_close.move(10,100) #移动按键
'''信息显示'''
self.label_show_camera = QtWidgets.QLabel() #定义显示视频的Label
self.label_show_camera.setFixedSize(641,481) #给显示视频的Label设置大小为641x481
'''把按键加入到按键布局中'''
self.__layout_fun_button.addWidget(self.button_open_camera) #把打开摄像头的按键放到按键布局中
self.__layout_fun_button.addWidget(self.button_close) #把退出程序的按键放到按键布局中
'''把某些控件加入到总布局中'''
self.__layout_main.addLayout(self.__layout_fun_button) #把按键布局加入到总布局中
self.__layout_main.addWidget(self.label_show_camera) #把用于显示视频的Label加入到总布局中
'''总布局布置好后就可以把总布局作为参数传入下面函数'''
self.setLayout(self.__layout_main) #到这步才会显示所有控件
'''初始化所有槽函数'''
def slot_init(self):
self.button_open_camera.clicked.connect(self.button_open_camera_clicked) #若该按键被点击,则调用button_open_camera_clicked()
self.timer_camera.timeout.connect(self.show_camera) #若定时器结束,则调用show_camera()
self.button_close.clicked.connect(self.close)#若该按键被点击,则调用close(),注意这个close是父类QtWidgets.QWidget自带的,会关闭程序
'''槽函数之一'''
def button_open_camera_clicked(self):
if self.timer_camera.isActive() == False: #若定时器未启动
flag = self.cap.open(self.CAM_NUM) #参数是0,表示打开笔记本的内置摄像头,参数是视频文件路径则打开视频
if flag == False: #flag表示open()成不成功
msg = QtWidgets.QMessageBox.warning(self,'warning',"请检查相机于电脑是否连接正确",buttons=QtWidgets.QMessageBox.Ok)
else:
self.timer_camera.start(30) #定时器开始计时30ms,结果是每过30ms从摄像头中取一帧显示
self.button_open_camera.setText('关闭相机')
else:
self.timer_camera.stop() #关闭定时器
self.cap.release() #释放视频流
self.label_show_camera.clear() #清空视频显示区域
self.button_open_camera.setText('打开相机')
def show_camera(self):
flag,self.image = self.cap.read() #从视频流中读取
show = cv2.resize(self.image,(640,480)) #把读到的帧的大小重新设置为 640x480
show = cv2.cvtColor(show,cv2.COLOR_BGR2RGB) #视频色彩转换回RGB,这样才是现实的颜色
showImage = QtGui.QImage(show.data,show.shape[1],show.shape[0],QtGui.QImage.Format_RGB888) #把读取到的视频数据变成QImage形式
self.label_show_camera.setPixmap(QtGui.QPixmap.fromImage(showImage)) #往显示视频的Label里 显示QImage
if __name__ =='__main__':
解决方案:
提示:该代码来自于网络