Opencv实时获取摄像头数据(附带解析)

本文介绍了一个使用OpenCV库在Python中从本地摄像头获取视频并实时显示的示例,适用于本地脚本环境,不适用于JupyterNotebook,因为后者可能因实时显示而崩溃。
摘要由CSDN通过智能技术生成
# 注意这段代码不能直接在jupyter中使用,否则会崩溃
import cv2  # 引入CV库
"""
读取摄像头数据,实时获取摄像头数据,同时按q退出
"""
# 创建窗口
cv2.namedWindow('video', cv2.WINDOW_NORMAL)
cv2.resizeWindow('video', 300, 300)  # 设置窗口大小

# 获取视频设备
cap = cv2.VideoCapture(0)
while True:
    # 从摄像头读视频帧
    ret, frame = cap.read()
    # 将视频帧在窗口中显示
    cv2.imshow('video', frame)
    key = cv2.waitKey(1)  # 不能为0,0为等待中断,只能读取到一帧的数据
    if (key & 0xFF == ord('q')):
        break

# 释放资源
cap.release()  # 释放视频资源
cv2.destroyAllWindows()  # 释放窗口资源

这段代码是一个使用 OpenCV 库在本地摄像头捕获视频并实时显示的简单示例。请注意,由于 Jupyter Notebook 不支持直接在内核中实时显示摄像头视频,因此在 Jupyter 中执行可能导致崩溃。这样的代码通常在本地 Python 脚本或集成开发环境(IDE)中运行。

以下是代码的主要步骤:

  1. 引入 OpenCV 库:import cv2

  2. 创建一个窗口,并设置其大小:cv2.namedWindow('video', cv2.WINDOW_NORMAL)cv2.resizeWindow('video', 300, 300)

  3. 获取视频设备:cap = cv2.VideoCapture(0),其中参数 0 表示使用第一个摄像头。

  4. 进入主循环,不断读取摄像头的视频帧,显示在窗口中:ret, frame = cap.read()cv2.imshow('video', frame)

  5. 使用 cv2.waitKey(1) 获取按键输入,如果按下 'q' 键,则退出循环。

  6. 释放资源:cap.release() 释放摄像头资源,cv2.destroyAllWindows() 释放窗口资源。

请确保在本地 Python 环境中执行此类代码,以便正常运行。

  • 9
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是一个使用OpenCV和Dlib库实时获取摄像头,识别和匹配人脸的C++代码示例: ```c++ #include <iostream> #include <opencv2/opencv.hpp> #include <dlib/opencv.h> #include <dlib/image_processing.h> #include <dlib/image_processing/frontal_face_detector.h> using namespace std; using namespace cv; using namespace dlib; int main(int argc, char** argv) { // 加载人脸检测器 frontal_face_detector detector = get_frontal_face_detector(); // 加载人脸特征提取器 shape_predictor predictor; deserialize("shape_predictor_68_face_landmarks.dat") >> predictor; // 加载已知人脸图像和其对应的特征 std::vector<Mat> known_face_images; std::vector<std::vector<float>> known_face_features; // 省略加载已知人脸图像和特征的代码 // 打开摄像头 VideoCapture cap(0); if (!cap.isOpened()) { cerr << "无法打开摄像头" << endl; return -1; } while (true) { // 从摄像头中读取一帧图像 Mat frame; cap >> frame; // 将OpenCV Mat转换为Dlib图像格式 cv_image<bgr_pixel> dlib_image(frame); // 检测人脸 std::vector<rectangle> dets = detector(dlib_image); // 对于每个检测到的人脸,计算其特征并与已知人脸进行匹配 for (unsigned long j = 0; j < dets.size(); ++j) { full_object_detection shape = predictor(dlib_image, dets[j]); // 计算人脸特征 matrix<rgb_pixel> face_chip; extract_image_chip(dlib_image, get_face_chip_details(shape, 150, 0.25), face_chip); std::vector<float> face_feature = face_recognition_model.compute_face_descriptor(face_chip); // 与已知人脸进行匹配 double min_distance = 1.0; int min_index = -1; for (int i = 0; i < known_face_features.size(); ++i) { double distance = 0; for (int j = 0; j < 128; ++j) { distance += pow(face_feature[j] - known_face_features[i][j], 2); } distance = sqrt(distance); if (distance < min_distance) { min_distance = distance; min_index = i; } } // 在图像中绘制人脸框和匹配结果 rectangle rect(dets[j].left(), dets[j].top(), dets[j].right(), dets[j].bottom()); rectangle rect_text(dets[j].left(), dets[j].top() - 20, dets[j].right(), dets[j].top()); putText(frame, "unknown", Point(rect_text.left(), rect_text.bottom()), FONT_HERSHEY_COMPLEX_SMALL, 0.8, Scalar(0, 0, 255), 1); if (min_index >= 0 && min_distance < 0.5) { rectangle rect_text(dets[j].left(), dets[j].top() - 20, dets[j].right(), dets[j].top()); putText(frame, "known", Point(rect_text.left(), rect_text.bottom()), FONT_HERSHEY_COMPLEX_SMALL, 0.8, Scalar(0, 255, 0), 1); } rectangle(frame, rect, Scalar(0, 0, 255), 2); } // 显示结果 imshow("人脸识别", frame); // 按下ESC键退出程序 if (waitKey(1) == 27) { break; } } return 0; } ``` 这段代码首先加载了人脸检测器和特征提取器。然后,它加载了已知人脸图像和其对应的特征。接着,它打开了摄像头,并不断从摄像头中读取图像。对于每个读取到的图像,它使用人脸检测器检测人脸,并使用特征提取器计算每个人脸的特征。然后,它将每个人脸的特征与已知人脸的特征进行匹配,并在图像中绘制人脸框和匹配结果。最后,它将结果显示出来,并等待ESC键退出程序。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值