解决C++ opencv 加入图像分析算法后,播放rtsp流延迟问题

2020.12.29 更新另一种方法

一般的海康摄像头是25fps,opencv在while循环中取流播放的话,完全没有问题。但是,如果加入一些目标检测等等图像操作会增加处理时间,由于硬件水平的限制,可能就达不到25fps了,这样就会堆积一部分帧,导致了延迟和花屏的现象。

解决办法:我们自己定义一个缓冲区(用vector模拟),由两个线程取维护它。read线程每次从缓冲区中取最新的帧,write线程每次取流将帧压入缓冲区。但是缓冲区数据入的速度大于出的速度,这样就需要清一下,清的时候不能全清也不能不清,隔帧抽取清理,保证画面的顺序。上代码 :

 

#include <iostream>
#include <opencv2/core.hpp>
#include <opencv2/highgui.hpp>
#include <thread>
#include <queue>
#include <chrono>
#include <unistd.h>
#include <X11/Xlib.h>

using namespace cv;
using namespace std;
using namespace std::chrono; // calc fps

std::mutex mtx;
vector<Mat> frame_buffer;

void frame_write(){
    cout << "this is write" << endl;
    Mat input, blob;
    VideoCapture capture;
    capture.open(0);
    if(capture.isOpened())
    {
        cout << "Capture is opened" << endl;
        for(;;)
        {
            capture >> input;
            if(input.empty())
                continue;
            mtx.lock();
            if(frame_buffer.size() < 100){
                frame_buffer.push_back(input);
                if (frame_buffer.size() > 10){ // 隔帧抽取一半删除
                    auto iter = frame_buffer.begin();
                    for(int inde = 0; inde < frame_buffer.size()/2 ; inde++)
                        frame_buffer.erase(iter++);
                }
            }
            else{
                cout << "thread ==============> after read stop, frame_buffer.size() > 100 , write stop";
                return;
            }
            mtx.unlock();
        }
    } else{
        cout << "open camera failed" << endl;
    }
}
void frame_read(){
    cout << "this is read" << endl;
    Mat frame;
    while(true){
        if (!frame_buffer.empty()){
            frame = frame_buffer.front();
            /// 在这里加上目标检测算法
            /*
             *
             */
            imshow("Thread Sample", frame);
            if(waitKey(10) == 27) // ’q‘ ASCII == 113
                break;
        }
    }
    cout << "thread ==============> read stop" <<endl;
}

int main(int argc, char** argv)
{
    XInitThreads();
    std::thread tw(frame_write); // pass by value
    std::thread tr(frame_read); // pass by value

    tw.detach();
    tr.join();

    return 0;
}

20200613重新修改了代码相比上次新增了一个互斥锁,但是还有个隐患,至今没有找到原因

what():  OpenCV(4.2.0) ../modules/core/src/array.cpp:2395: error: (-27:Null pointer) The matrix has NULL data pointer in function 'cvGetMat'

程序运行一段时间后还是会崩溃,经过vector后出现了空指针

参考darknet的官方代码,换了一种实现思路采取两个线程异步收发的思路,详见代码注释。

demo如下:

#include <iostream>
#include <thread>
#include <queue>
#include <chrono>
#include <atomic>
#include <unistd.h>
#include <condition_variable>

using namespace std;
using namespace std::chrono;
 

template<typename T>
class send_receive_one_object {
    std::atomic<T *> a_ptr;
    condition_variable cv_;
    mutex lock_;
public:

    void send(T const& _obj) {
        T *new_ptr = new T;
        *new_ptr = _obj;
        std::unique_ptr<T> old_ptr(a_ptr.exchange(new_ptr));
        cv_.notify_one();
    }

    T receive() {
        std::unique_ptr<T> ptr;
        do {
            std::unique_lock<mutex> l(lock_);
            cv_.wait(l, [&]{return a_ptr != NULL;});
            ptr.reset(a_ptr.exchange(NULL));
        } while (!ptr);
        T obj = *ptr;
        return obj;
    }
    send_receive_one_object() : a_ptr(NULL)
    {
        cout << "================> init send_receive_one_object" << endl;
    }
};

struct Job{
    int id;
}; // 收发数据结构体,可以写视频帧或者其他有用的数据

const bool sync_ = true;
static send_receive_one_object<Job> read_write;

void frame_write(){
    cout << "this is frame_write !!!" << endl;
    sleep(3);
    Job jj;
    int cnt = 30;
    while(cnt --){
        jj.id = 30-cnt;
        read_write.send(jj);
        usleep(10000); // 模拟取流30帧,并设置时间间隔
    }
}

void frame_read(){
    cout << "this is frame_read !!!" << endl;
    Job jj;
    int cnt = 200;
    while(cnt --){
        jj = read_write.receive();
        cout << jj.id << endl;
        usleep(30000); // 模拟算法处理速度是取流速度的1/3
    }
}

int main(int argc, char** argv)
{
    std::thread tw(frame_write);
    std::thread tr(frame_read);
 
    tw.join();
    tr.join();
 
    return 0;
}

 

  • 5
    点赞
  • 61
    收藏
    觉得还不错? 一键收藏
  • 6
    评论
### 回答1: 好的,我可以用中文回答您的问题。 使用OpenCV读取RTSP视频并进行图像处理可以分为以下几个步骤: 1. 导入OpenCV库并打开RTSP 您可以使用cv2库中的VideoCapture函数打开RTSP。例如: ```python import cv2 cap = cv2.VideoCapture("rtsp://username:password@ip_address:port/path") ``` 其中,`username`和`password`是您的RTSP的用户名和密码,`ip_address`是您的RTSP的IP地址,`port`是RTSP的端口,`path`是您的视频的路径。 2. 读取视频中的帧 使用VideoCapture对象的read方法,可以读取视频中的帧。例如: ```python ret, frame = cap.read() ``` 其中,`ret`是一个布尔值,用于检测是否成功读取了一帧,`frame`是当前帧的图像数据。 3. 对图像进行处理 您可以使用OpenCV的各种函数对帧进行处理,例如滤波、二值化、边缘检测等等。 ```python gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) blur = cv2.GaussianBlur(gray, (5, 5), 0) edges = cv2.Canny(blur, 100, 200) ``` 这里的代码将读取到的帧先转换为灰度图像,然后对其进行高斯滤波和Canny边缘检测。 4. 显示处理后的图像并进行畅推 最后,您可以使用imshow函数将处理后的图像显示出来,并使用waitKey函数等待一段时间以畅地推视频。例如: ```python cv2.imshow("Processed Frame", edges) cv2.waitKey(1) ``` 其中,`1`表示等待1毫秒。 完整的代码示例: ```python import cv2 cap = cv2.VideoCapture("rtsp://username:password@ip_address:port/path") while True: ret, frame = cap.read() if not ret: break gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) blur = cv2.GaussianBlur(gray, (5, 5), 0) edges = cv2.Canny(blur, 100, 200) cv2.imshow("Processed Frame", edges) cv2.waitKey(1) cap.release() cv2.destroyAllWindows() ``` 希望这能帮到您! ### 回答2: 使用OpenCV读取RTSP需要使用VideoCapture来打开RTSP URL,并使用read方法读取每一帧图像。然后,我们可以将读取到的每一帧进行图像处理操作,例如裁剪、缩放、滤波等等。最后,我们可以使用OpenCV的VideoWriter将处理后的图像出去。 首先,我们需要引入OpenCV库并创建一个VideoCapture对象,将RTSP URL作为参数传入。然后,使用while循环不断读取每一帧图像,直到读取到最后一帧或者用户中断操作。 然后,我们可以对每一帧图像进行预处理操作,例如使用cv2.crop裁剪图像的特定区域,使用cv2.resize缩放图像的尺寸,使用cv2.filter2D进行滤波等。处理后的图像可以通过cv2.imshow显示出来,或者通过cv2.imwrite保存为本地文件。 最后,我们需要创建一个VideoWriter对象,指定输出文件的编码方式、帧率和分辨率等参数,并利用write方法将处理后的图像写入推。推的终止可以通过按下键盘上的"q"键触发。 示例代码如下: ```python import cv2 # 打开RTSP cap = cv2.VideoCapture("rtsp://example.com/live") # 设置输出编码方式、帧率和分辨率 fourcc = cv2.VideoWriter_fourcc(*'mp4v') fps = cap.get(cv2.CAP_PROP_FPS) width = int(cap.get(cv2.CAP_PROP_FRAME_WIDTH)) height = int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT)) # 创建VideoWriter对象 out = cv2.VideoWriter("output.mp4", fourcc, fps, (width, height)) while True: # 读取图像帧 ret, frame = cap.read() if not ret: break # 图像处理操作 # ... # 显示处理后的图像 cv2.imshow("Frame", frame) # 写入推 out.write(frame) # 按下q键退出推 if cv2.waitKey(1) & 0xFF == ord('q'): break # 释放资源 cap.release() out.release() cv2.destroyAllWindows() ``` 通过上述代码,我们可以利用OpenCV实现读取RTSP图像并进行处理后推的功能。当然,在实际应用中,还可以根据具体需求进行更复杂的图像处理操作,以及将推输出改为其他形式,例如推到网络服务器或者其他设备等。 ### 回答3: OpenCV是一个开源的计算机视觉和图像处理库,它提供了很多用于处理图像和视频的函数和算法。我们可以使用OpenCV来读取RTSP并进行图像处理,然后将处理后的图像到其他设备或平台。 首先,我们需要安装OpenCV库,并创建一个RTSP对象。我们可以使用`cv2.VideoCapture()`函数来读取RTSP。例如,下面的代码将创建一个读取RTSP的对象: ``` import cv2 rtsp_stream_url = "rtsp://example.com/your_stream_url" cap = cv2.VideoCapture(rtsp_stream_url) ``` 接下来,我们可以使用OpenCV提供的函数和算法来对图像进行处理。例如,我们可以使用`cv2.cvtColor()`函数将图像转换为灰度图像: ``` ret, frame = cap.read() gray_frame = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) ``` 然后,我们可以将处理后的图像到其他设备或平台。有很多方法可以实现这一点,具体取决于我们想要推到哪里。例如,我们可以使用FFmpeg来推。首先,我们需要将处理后的图像保存为图片文件。然后,我们可以使用以下命令将图片文件推到RTMP服务器: ``` ffmpeg -re -i your_image.jpg -vcodec copy -f flv rtmp://example.com/your_rtmp_server_url ``` 您也可以使用其他方法将图像到其他设备或平台,具体取决于您的需求。无论您选择哪种方法,都需要确保设备或平台支持推和相应的协议。 综上所述,我们可以使用OpenCV库来读取RTSP并对图像进行处理,然后将处理后的图像到其他设备或平台。具体的实现细节取决于您的需求和选择的推方法。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值