使用opencv读取rtsp流的图片帧进行目标检测,并将处理好的图像推到rtsp服务器上

目录

业务场景

解决方案一:使用opencv+Gstreamer-rtsp-server完成(推荐)

        环境配置

        代码

解决方案二:使用ffmpeg+rtsp服务器完成

参考链接如下:


业务场景

使用opencv读取rtsp流的图片帧进行目标检测(画框),并将处理好的图像推到rtsp服务器上。东拼西凑,再加上一点点的学习,终于是能基本完成目标了,泪目!!

解决方案一:使用opencv+Gstreamer-rtsp-server完成(推荐)

        环境配置

        使用的是Ubuntu18.04+Python3.6+Gstreamer1.0+opencv4.5,具体安装网上全都是,不多说,直接上代码。

        代码

         代码是直接借鉴的,原网址是https://stackoverflow.com/questions/47396372/write-opencv-frames-into-gstreamer-rtsp-server-pipeline/60580247#60580247%3E(世上还是好人多,拜谢),只是通过自己浅薄的Gstreamer知识加了一点点注释,这段代码给了我很大帮助,最后输出的rtsp地址是rtsp://localhost:8555/test,端口可以自己设置。

        我图像处理任务是对rtsp流视频进行目标检测,代码是在RTX2080super跑的,画完框推上来的视频延迟达到了8秒,还是很离谱的,不知道那部分出了问题,未解决。

import cv2
import gi
gi.require_version('Gst', '1.0')
gi.require_version('GstRtspServer', '1.0')
from gi.repository import Gst, GstRtspServer, GObject, GLib


class SensorFactory(GstRtspServer.RTSPMediaFactory):
    def __init__(self, **properties):
        super(SensorFactory, self).__init__(**properties)
        self.cap = cv2.VideoCapture("rtsp://...")
        # self.cap = cv2.VideoCapture(0)
        self.width = int(self.cap.get(cv2.CAP_PROP_FRAME_WIDTH))
        self.height = int(self.cap.get(cv2.CAP_PROP_FRAME_HEIGHT))
        self.number_frames = 0
        self.fps = int(self.cap.get(cv2.CAP_PROP_FPS)) % 100
        self.duration = 1 / self.fps * Gst.SECOND  # duration of a frame in nanoseconds

        """
            appsrc:使应用程序能够提供缓冲区写入管道; 
            block: 每块推送buffer块的最大字节;
            is-live:当前推送的是否直播数据;
            caps:过滤器
            rtph264pay:把H264 视频数据编码进RTP包
        """

        self.launch_string = 'appsrc name=source is-live=true block=true format=GST_FORMAT_TIME ' \
                             'caps=video/x-raw,format=BGR,width={},height={},framerate={}/1 ' \
                             '! videoconvert ! video/x-raw,format=I420 ' \
                             '! x264enc speed-preset=fast tune=zerolatency threads=4 ' \
                             '! rtph264pay config-interval=1 name=pay0 pt=96'.format(self.width,
                                                                                     self.height,
                                                                                     self.fps)


    def on_need_data(self, src, lenght):
        if self.cap.isOpened():
            ret, frame = self.cap.read()
            if ret:
                #TODO 自己发挥,做一些图像识别,画框等任务,
                data = frame.tostring()
                buf = Gst.Buffer.new_allocate(None, len(data), None)
                buf.fill(0, data)
                buf.duration = self.duration
                timestamp = self.number_frames * self.duration
                buf.pts = buf.dts = int(timestamp)
                buf.offset = timestamp
                self.number_frames += 1
                retval = src.emit('push-buffer', buf)
                print('pushed buffer, frame {}, duration {} ns, durations {} s'.format(self.number_frames,
                                                                                       self.duration,
                                                                                       self.duration / Gst.SECOND))
                if retval != Gst.FlowReturn.OK:
                    print(retval)

    def do_create_element(self, url):
        return Gst.parse_launch(self.launch_string)

    def do_configure(self, rtsp_media):
        self.number_frames = 0
        appsrc = rtsp_media.get_element().get_child_by_name('source')
        appsrc.connect('need-data', self.on_need_data)


class GstServer(GstRtspServer.RTSPServer):
    def __init__(self, **properties):
        super(GstServer, self).__init__(**properties)
        self.set_service("8555")
        self.factory = SensorFactory()
        self.factory.set_shared(True)
        self.get_mount_points().add_factory("/test", self.factory)
        self.attach(None)



if __name__ == "__main__":

    GObject.threads_init()
    Gst.init(None)
    server = GstServer()
    loop = GObject.MainLoop()
    loop.run()

        在代码跑通后,通过VLC进行验证,一阵狂喜,但是又出现了新的问题,我想让让多个客户端访问生成的rtsp流,但当我使用多个VLC访问rtsp地址时,出现了错误,这和预想的实现效果不一样,于是又是一通百度,解决方案有https://blog.csdn.net/Aidam_Bo/article/details/109772430,还有github上的大佬给指点的路https://github.com/mad4ms/python-opencv-gstreamer-examples/issues/2,代码基本上都是C/C++完成的,对于我这种只会一丢丢C的战五渣,直接选择放弃 。(希望哪位大佬有空的时候把上面链接的代码改成python,给渣渣们指条道) 。

        但是事情还得做,搜索无果后,  只能选择最笨的方式,几路访问就写死几路,把上面的Gstserver类修改一下,以两路为例,生成两个rtsp流地址,使用两个VLC分别访问,代码

class GstServer(GstRtspServer.RTSPServer):
    def __init__(self, **properties):
        super(GstServer, self).__init__(**properties)
        self.set_service("8555")
        self.factory = SensorFactory()
        self.factory.set_shared(True)
        self.get_mount_points().add_factory("/test", self.factory)
        ###修改
        self.factory1 = SensorFactory()
        self.factory1.set_shared(True)
        self.get_mount_points().add_factory("/test1", self.factory1)
        ###
        self.attach(None)

        如果读者还有更好的实现方法,请务必在下面评论或者私信我,感激不尽!!!

解决方案二:使用ffmpeg+rtsp服务器完成

        环境配置

        上面的项目虽然实现了基本功能,但是不完美,于是寻求别的解决方案,偶然间看到一篇博客,地址为https://blog.csdn.net/qq_43591363/article/details/107850324,觉得非常有搞头,直接根据上面的链接配置即可,不过在安装ffmpeg时,我没有使用博客的方法,而是直接使用了sudo install ffmpeg命令,实测好使。在安装好x264、ffmpeg、node-rtsp-server环境之后,打开rtsp服务器。

cd node-rtsp-rtmp-server
sudo coffee server.coffee

       代码实现

        运行推流代码,访问rtsp://localhost:80/live/STREAMNAME即可。

import cv2
import gi
import subprocess

class Put_rtsp():
    def __init__(self,cap):
        self.cap = cv2.VideoCapture(cap)
        # self.cap = cv2.VideoCapture("rtsp://192.168.111.131:6666/live")
        # self.cap = cv2.VideoCapture(0)
        self.width = int(self.cap.get(cv2.CAP_PROP_FRAME_WIDTH))
        self.height = int(self.cap.get(cv2.CAP_PROP_FRAME_HEIGHT))
        self.number_frames = 0
        self.fps = int(self.cap.get(cv2.CAP_PROP_FPS)) % 100


    def on_need_data(self):
        if self.cap.isOpened():
            ret, frame = self.cap.read()
            #TODO 图像处理任务           
            return frame



rtsp_o = "rtsp://...."
rtsp_p = 'rtsp://localhost:80/live/STREAMNAME'
# 读取视频并获取属性
cap = cv2.VideoCapture(rtsp_o)
width = int(cap.get(cv2.CAP_PROP_FRAME_WIDTH))
height = int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT))
# print(width,height)
fps = int(cap.get(cv2.CAP_PROP_FPS)) % 100
size = (width,height)
sizeStr = str(size[0]) + 'x' + str(size[1])


command = ['ffmpeg',
           '-y', '-an',
           '-re',
           '-f', 'rawvideo',
           '-pix_fmt', 'bgr24',
           '-s', sizeStr,
           '-r', str(fps),
           '-i', '-',
           '-c:v','libx264',
           '-g', '1',
           '-maxrate:v', '6M',
           '-minrate:v', '2M',
           '-bufsize:v', '4M',
           '-pix_fmt','yuv420p',
           # '-profile:v','high444',
           '-preset','fast',#'ultrafast',# 'superfast',
           '-tune', 'zerolatency',
           # '-b:v', '4M',
           '-f', 'rtsp',
            rtsp_p]


pipe = subprocess.Popen(command
                        , shell=False
                        , stdin=subprocess.PIPE
                        )



while cap.isOpened():
    f = Put_rtsp(rtsp_o)
    frame  = f.on_need_data()
    data = frame.tostring()
    pipe.stdin.write(data)

cap.release()
pipe.terminate()

        项目输出的rtsp流能被多个VLC同时访问,没有处理的原视频直接推效果还可以,但是当我执行画框任务时太卡了,基本上一秒一帧,都成PPT了,还容易掉线,这谁顶得住,太难了!!!如果读者还有更好的实现方法或者改进方案,请务必在下面评论或者私信我,感激不尽!!!

参考链接如下:

        方案一参考链接:https://stackoverflow.com/questions/47396372/write-opencv-frames-into-gstreamer-rtsp-server-pipeline/60580247#60580247%3E

        方案二参考链接:https://blog.csdn.net/qq_43591363/article/details/107850324

        

        

        

  • 7
    点赞
  • 104
    收藏
    觉得还不错? 一键收藏
  • 8
    评论
### 回答1: 好的,我可以用中文回答您的问题。 使用OpenCV读取RTSP视频进行图像处理可以分为以下几个步骤: 1. 导入OpenCV库并打开RTSP 您可以使用cv2库中的VideoCapture函数打开RTSP。例如: ```python import cv2 cap = cv2.VideoCapture("rtsp://username:password@ip_address:port/path") ``` 其中,`username`和`password`是您的RTSP的用户名和密码,`ip_address`是您的RTSP的IP地址,`port`是RTSP的端口,`path`是您的视频的路径。 2. 读取视频中的 使用VideoCapture对象的read方法,可以读取视频中的。例如: ```python ret, frame = cap.read() ``` 其中,`ret`是一个布尔值,用于检测是否成功读取了一,`frame`是当前图像数据。 3. 对图像进行处理 您可以使用OpenCV的各种函数对进行处理,例如滤波、二值化、边缘检测等等。 ```python gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) blur = cv2.GaussianBlur(gray, (5, 5), 0) edges = cv2.Canny(blur, 100, 200) ``` 这里的代码将读取到的先转换为灰度图像,然后对其进行高斯滤波和Canny边缘检测。 4. 显示处理后的图像进行畅推 最后,您可以使用imshow函数将处理后的图像显示出来,并使用waitKey函数等待一段时间以畅地推视频。例如: ```python cv2.imshow("Processed Frame", edges) cv2.waitKey(1) ``` 其中,`1`表示等待1毫秒。 完整的代码示例: ```python import cv2 cap = cv2.VideoCapture("rtsp://username:password@ip_address:port/path") while True: ret, frame = cap.read() if not ret: break gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) blur = cv2.GaussianBlur(gray, (5, 5), 0) edges = cv2.Canny(blur, 100, 200) cv2.imshow("Processed Frame", edges) cv2.waitKey(1) cap.release() cv2.destroyAllWindows() ``` 希望这能帮到您! ### 回答2: 使用OpenCV读取RTSP需要使用VideoCapture来打开RTSP URL,并使用read方法读取每一图像。然后,我们可以将读取到的每一进行图像处理操作,例如裁剪、缩放、滤波等等。最后,我们可以使用OpenCV的VideoWriter将处理后的图像出去。 首先,我们需要引入OpenCV库并创建一个VideoCapture对象,将RTSP URL作为参数传入。然后,使用while循环不断读取每一图像,直到读取到最后一或者用户中断操作。 然后,我们可以对每一图像进行处理操作,例如使用cv2.crop裁剪图像的特定区域,使用cv2.resize缩放图像的尺寸,使用cv2.filter2D进行滤波等。处理后的图像可以通过cv2.imshow显示出来,或者通过cv2.imwrite保存为本地文件。 最后,我们需要创建一个VideoWriter对象,指定输出文件的编码方式、率和分辨率等参数,并利用write方法将处理后的图像写入推。推的终止可以通过按下键盘上的"q"键触发。 示例代码如下: ```python import cv2 # 打开RTSP cap = cv2.VideoCapture("rtsp://example.com/live") # 设置输出编码方式、率和分辨率 fourcc = cv2.VideoWriter_fourcc(*'mp4v') fps = cap.get(cv2.CAP_PROP_FPS) width = int(cap.get(cv2.CAP_PROP_FRAME_WIDTH)) height = int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT)) # 创建VideoWriter对象 out = cv2.VideoWriter("output.mp4", fourcc, fps, (width, height)) while True: # 读取图像 ret, frame = cap.read() if not ret: break # 图像处理操作 # ... # 显示处理后的图像 cv2.imshow("Frame", frame) # 写入推 out.write(frame) # 按下q键退出推 if cv2.waitKey(1) & 0xFF == ord('q'): break # 释放资源 cap.release() out.release() cv2.destroyAllWindows() ``` 通过上述代码,我们可以利用OpenCV实现读取RTSP图像进行处理后推的功能。当然,在实际应用中,还可以根据具体需求进行更复杂的图像处理操作,以及将推输出改为其他形式,例如推到网络服务器或者其他设备等。 ### 回答3: OpenCV是一个开源的计算机视觉和图像处理库,它提供了很多用于处理图像和视频的函数和算法。我们可以使用OpenCV读取RTSP进行图像处理,然后将处理后的图像到其他设备或平台。 首先,我们需要安装OpenCV库,并创建一个RTSP对象。我们可以使用`cv2.VideoCapture()`函数来读取RTSP。例如,下面的代码将创建一个读取RTSP的对象: ``` import cv2 rtsp_stream_url = "rtsp://example.com/your_stream_url" cap = cv2.VideoCapture(rtsp_stream_url) ``` 接下来,我们可以使用OpenCV提供的函数和算法来对图像进行处理。例如,我们可以使用`cv2.cvtColor()`函数将图像转换为灰度图像: ``` ret, frame = cap.read() gray_frame = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) ``` 然后,我们可以将处理后的图像到其他设备或平台。有很多方法可以实现这一点,具体取决于我们想要推到哪里。例如,我们可以使用FFmpeg来推。首先,我们需要将处理后的图像保存为图片文件。然后,我们可以使用以下命令将图片文件推到RTMP服务器: ``` ffmpeg -re -i your_image.jpg -vcodec copy -f flv rtmp://example.com/your_rtmp_server_url ``` 您也可以使用其他方法将图像到其他设备或平台,具体取决于您的需求。无论您选择哪种方法,都需要确保设备或平台支持推和相应的协议。 综上所述,我们可以使用OpenCV库来读取RTSP并对图像进行处理,然后将处理后的图像到其他设备或平台。具体的实现细节取决于您的需求和选择的推方法。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值