Qt 中获取摄像头图像数据的方法

Qt 中获取摄像头图像数据的方法

在 Qt 中提供了 QCamera 类用来操作摄像头。(这里的摄像头指的是电脑上常用的那种 USB 摄像头或网络摄像头,暂时还不支持工业相机。)摄像头获取的实时图像可以显示在 QCameraViewfinder 或 QGraphicsVideoItem 上,QCameraImageCapture 可以获取静态的图像,QMediaRecorder 可以用来录像。

用这些现有的组件可以很方便的完成一些基本的相机操作。但是如果我们做的更深入点,比如做个人脸识别、美颜处理一类的就不够用了。这时我们就需要获取相机的每一帧实时图像数据。

在 Qt 中,实现这个功能有两种主要的方法,一种是写一个派生自 QAbstractVideoSurface 的类。第二个方法是用 QVideoProbe。采用 QVideoProbe 比 第一种方法要简单。
但是按照 https://wiki.qt.io/Qt_5.7_Multimedia_Backends 上面的说法:

QVideoProbe support:
Android: only for camera
Blackberry: no support
iOS: no support
Linux: only for media player
Mac: no support
Windows: only for media player

QVideoProbe 暂时只在 android 平台上支持 QCamera。所以我们这篇文章主要来讲第一种方法。

QAbstractVideoSurface 是个纯虚类。要派生一个类需要我们实现两个函数。
* bool present(const QVideoFrame &frame);
* QList supportedPixelFormats(QAbstractVideoBuffer::HandleType type = QAbstractVideoBuffer::NoHandle) const

我们派生的类叫做 CameraImage,那么这个类的头文件可以这样。

class CameraImage : public QAbstractVideoSurface
{
    Q_OBJECT
public:
    QList<QVideoFrame::PixelFormat> supportedPixelFormats(
            QAbstractVideoBuffer::HandleType handleType = QAbstractVideoBuffer::NoHandle) const override;
    explicit CameraImage(QObject *parent = 0);
    void setVideoFrame(const QVideoFrame &frame);
private slots:
    bool present(const QVideoFrame &frame) override;
private:
    void setRGB24Image(const uint8_t *imgBuf, QSize size);
    void setRGB32Image(const uint8_t *imgBuf, QSize size);
    void setMono8Image(const uint8_t *imgBuf, QSize size);
    void setYUY2Image(const uint8_t *imgBuf, QSize size);
    void setVYUYImage(const uint8_t *imgBuf, QSize size);
    void setUYVYImage(const uint8_t *imgBuf, QSize size);
    QImage m_image;
};

这个类中的 m_image 就是用来存放相机图像数据的。相机采集的每一帧数据都会放到这里,供进一步处理。

supportedPixelFormats 函数用来返回所有的支持的 PixelFormats。这里我们只是做个例子,支持最基本的几种,作为一个完善的 CameraImage 类,当然是支持的像素类型越多越好。

CameraImage::CameraImage(QObject *parent)
    : QAbstractVideoSurface(parent)
{

}
QList<QVideoFrame::PixelFormat> CameraImage::supportedPixelFormats(
        QAbstractVideoBuffer::HandleType handleType) const
{
    Q_UNUSED(handleType);
    QList<QVideoFrame::PixelFormat> list;
    list << QVideoFrame::Format_RGB32;
    list << QVideoFrame::Format_ARGB32;
    list << QVideoFrame::Format_RGB24;
    list << QVideoFrame::Format_UYVY;
    list << QVideoFrame::Format_Y8;
    list << QVideoFrame::Format_YUYV;
    return list;
}

present 函数是最重要的,每次相机有新图像到来,都会调用 present 函数。

bool CameraImage::present(const QVideoFrame &frame)
 {
    // 处理捕获的帧
    if(frame.isMapped())
    {
        setVideoFrame(frame);
    }
    else
    {
        QVideoFrame f(frame);
        f.map(QAbstractVideoBuffer::ReadOnly);
        setVideoFrame(f);
    }
    return true;
 }

这里有个 QVideoFrame,需要讲解一下。一个 QVideoFrame 代表的就是相机的一帧数据。QVideoFrame::bits() 返回的是一帧图像的起始地址。但是在调用 bits() 函数之前还要先判断 frame 是否 map 了。所谓 map 就是将图像数据放到 CPU 可以寻址的地方。具体的大家可以看 QVideoFrame 的帮助文档。但是使用的方法很简单,就是先判断是否 map,如果没 map 就 map 一下。之后就可以正常使用了。

setVideoFrame 函数的作用是将 QVideoFrame 转换为 QImage。

void CameraImage::setVideoFrame(const QVideoFrame &frame)
{
    switch (frame.pixelFormat())
    {
    case QVideoFrame::Format_RGB24:
        setRGB24Image(frame.bits(), frame.size());
        break;
    case QVideoFrame::Format_RGB32:
    case QVideoFrame::Format_ARGB32:
    case QVideoFrame::Format_ARGB32_Premultiplied:
        setRGB32Image(frame.bits(), frame.size());
        break;
    case QVideoFrame::Format_Y8:
        setBayerImage(frame.bits(), frame.size());
        break;
    case QVideoFrame::Format_YUYV:
        setYUY2Image(frame.bits(), frame.size());
        break;
    case QVideoFrame::Format_UYVY:
        setUYVYImage(frame.bits(), frame.size());
        break;
    default:
        break;
    }

    // 这里可以做人脸识别一类的其他工作。
}

setVideoFrame 函数中又调用了 setRGB24Image 等其他函数。这些函数实现具体的数据转换操作。代码比较多,这里就不贴出来了。

  • void setRGB24Image(const uint8_t *imgBuf, QSize size);
  • void setRGB32Image(const uint8_t *imgBuf, QSize size);
  • void setMono8Image(const uint8_t *imgBuf, QSize size);
  • void setYUY2Image(const uint8_t *imgBuf, QSize size);
  • void setVYUYImage(const uint8_t *imgBuf, QSize size);
  • void setUYVYImage(const uint8_t *imgBuf, QSize size);
  • 9
    点赞
  • 77
    收藏
    觉得还不错? 一键收藏
  • 6
    评论
Qt是一款流行的C++跨平台开发框架,它的多样化的类库和工具链支持了广泛的应用程序类型和领域。在使用Qt开发图像视频应用时,对数据源的支持是至关重要的,因为它牵涉到访问和处理信号、视频、音频和其他流数据。本文将介绍如何使用Qt技术完成从 v4l2 摄像头获取视频数据以及处理的方法。 在开始介绍方法之前,需要先了解一下v4l2摄像头。v4l2是一种Linux内核框架,用于控制视频设备的采集、编码和显示等操作。v4l2摄像头主要用于Linux系统下的视频采集,它最初是为了支持USB摄像头而设计的。在使用v4l2摄像头时,我们需要通过系统的Video-For-Linux接口和相应的API进行操作。 Qt提供了一个QCamera类,支持从摄像头和文件获取视频数据,但是它不支持v4l2协议。因此,我们可以使用Qt的QWidget类进行自定义图形界面,使用v4l2的API获取视频数据,并将视频数据通过Qt的信号槽机制传递给QWidget对象进行显示。具体步骤如下: 1.定义v4l2摄像头结构体,设置参数,包括设备的名称、宽度、高度、帧率、格式等。 2.打开v4l2设备,检查设备是否打开正常。 3.通过ioctl()系统调用获取v4l2摄像头的参数,并设置相应控制,例如启动视频流。 4.使用Qt的定时器,通过定时器超时来触发读取v4l2摄像头的视频数据。 5.使用QT的QImage类将读取的RGB格式的视频数据转换为可用于QWidget的图像显示。 6.释放相关的资源,包括关闭v4l2设备。 总的来说,Qt与v4l2结合使用是一种可行的方法,可以支持Linux平台上的视频采集、处理和显示等功能。这种方法可以使用Qt丰富的类库和工具链进行开发,也可以使用v4l2提供的高效的图像采集框架实现更加灵活和高效的图像处理。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值