利用ffmpeg获取视频帧

如果要对视频帧进行处理,可以先把视频帧读取出来。

sh文件代码如下:

#!/usr/bin/env sh
VIDEO=/home/xxx/video/
FRAMES=/home/xxx/frame/

echo "Extract Frames..."
for avi in $VIDEO/*.avi
do
FOLDER=$(basename $avi  .avi)
rm -rf $FOLDER
mkdir $FRAMES/$FOLDER
ffmpeg -i $avi -f image2 $FRAMES/$FOLDER/m-%3d.jpg
done

 

转载于:https://www.cnblogs.com/denny402/p/10994454.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要使用 OpenCV 播放 RTSP 视频流,您需要用 FFmpeg 获取视频流,并将每一转换为 OpenCV 可读取的格式。以下是一个简单的 Python 代码示例,展示了如何使用 FFmpeg 和 OpenCV 播放 RTSP 视频流: ```python import cv2 import ffmpeg # RTSP 地址 url = 'rtsp://xxx.xxx.xxx.xxx:xxxx' # 使用 FFmpeg 获取视频流 stream = ffmpeg.input(url) stream = ffmpeg.output(stream, 'pipe:', format='rawvideo', pix_fmt='rgb24') process = ffmpeg.run_async(stream, pipe_stdout=True) # 使用 OpenCV 播放视频流 while True: # 读取一视频流 in_bytes = process.stdout.read(1920*1080*3) if not in_bytes: break # 将视频流转换为 OpenCV 格式 frame = numpy.frombuffer(in_bytes, numpy.uint8).reshape([1080, 1920, 3]) # 显示视频 cv2.imshow('frame', frame) if cv2.waitKey(1) & 0xFF == ord('q'): break # 释放资源 process.stdout.close() cv2.destroyAllWindows() ``` 在这个示例中,我们首先使用 FFmpeg 获取 RTSP 视频流,并将其转换为裸视频流格式(rawvideo),然后通过管道(pipe)将视频流传输给 OpenCV。在循环中,我们不断读取视频,并将其转换为 OpenCV 可读取的格式,最后使用 `cv2.imshow()` 函数显示视频。 需要注意的是,这个示例仅适用于 RGB24 格式的视频流,如果您需要处理其他格式的视频流,可能需要修改一些参数和代码。另外,这个示例还没有加入异常处理和错误处理,您需要自行添加以保证程序的稳定性和可靠性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值