Qt-FFmpeg开发-保存视频流裸流

1、概述📸

  • 最近研究了一下FFmpeg开发,功能实在是太强大了,网上ffmpeg3、4的文章还是很多的,但是学习嘛,最新的还是不能放过,就选了一个最新的ffmpeg n5.1.2版本,和3、4版本api变化还是挺大的;

  • 在这个Demo里主要使用Qt + FFmpeg开发一个简单的【视频播放器】,支持【保存视频流裸流】功能,这里主要使用的是【软解码】,需要使用硬解码的可以看之前的文章;

  • 同时为了尽可能的简单,这里没有进行音频解码和播放,只是单独的进行视频解码播放;

  • 再日常开发中,经常有将播放的网络视频流图像保存到本地视频文件中的需求,但是如果将图像重新编码保存则会非常消耗CPU资源,裸流数据一般是H264格式的数据,这里其实可以直接将网络视频流未解码的AVPacket直接保存到视频文件中,不需要编码,可大大降低资源占用;

  • 并且直接保存裸流的代码流程不重新编码/转码保存的流程简单许多。

开发环境说明

  • 系统:Windows10、Ubuntu20.04

  • Qt版本:V5.12.5

  • 编译器:MSVC2017-64、GCC/G++64

  • FFmpeg版本:n5.1.2 (注意:如果版本不对可能程序无法运行)

2、实现效果💽

  1. ffmpeg音视频库【软解码】实现的视频播放器;

  2. 支持打开本地视频文件(如mp4、mov、avi等)、网络视频流(rtsp、rtmp、http等);

  3. 支持视频匀速播放;

  4. 采用QPainter进行显示,支持自适应窗口缩放;

  5. 视频播放支持实时开始/关闭、暂停/继续播放;

  6. 视频解码、线程控制、显示各部分功能分离,低耦合度。

  7. 采用最新的5.1.2版本ffmpeg库进行开发,超详细注释信息,将所有踩过的坑、解决办法、注意事项都得很写清楚。

  8. 在使用ffmpeg打开网络视频流时,如果是【h264裸流可以直接保存为本地文件】,不需要进行编码操作。

3、FFmpeg保存裸流代码流程💡

  • 白色部分: 主要为打开读取网络视频流、解码流程;

  • 绿色部分: 主要是打开输出文件,将裸流保存到文件的流程。

 【学习地址】:FFmpeg/WebRTC/RTMP/NDK/Android音视频流媒体高级开发

【文章福利】:免费领取更多音视频学习资料包、大厂面试题、技术视频和学习路线图,资料包括(C/C++,Linux,FFmpeg webRTC rtmp hls rtsp ffplay srs 等等)有需要的可以点击1079654574加群领取哦~

4、主要代码🔍

啥也不说了,直接上代码,一切有注释

4.1 videodecode.h文件

/******************************************************************************
 * @文件名     videodecode.h
 * @功能       视频解码类,在这个类中调用ffmpeg打开视频进行解码,并且打开输出文件,将h264裸流保存
 *
 * @开发者     mhf
 * @邮箱       1603291350@qq.com
 * @时间       2022/09/15
 * @备注
 *****************************************************************************/
#ifndef VIDEODECODE_H
#define VIDEODECODE_H
​
#include <QString>
#include <QSize>
​
struct AVFormatContext;
struct AVCodecContext;
struct AVRational;
struct AVPacket;
struct AVFrame;
struct SwsContext;
struct AVBufferRef;
struct AVStream;
class QImage;
​
class VideoDecode
{
public:
    VideoDecode();
    ~VideoDecode();
​
    bool open(const QString& url = QString());    // 打开媒体文件,或者流媒体rtmp、strp、http
    QImage read();                               // 读取视频图像
    void close();                                 // 关闭
    bool isEnd();                                 // 是否读取完成
    const qint64& pts();                          // 获取当前帧显示时间
​
private:
    void initFFmpeg();                            // 初
  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Qt中使用FFmpeg播放RTSP H264视频流的方法如下[^1][^2]: 1. 首先,确保你已经安装了QtFFmpeg,并且已经将FFmpeg的库文件添加到Qt项目中。 2. 创建一个Qt项目,并在项目文件中添加FFmpeg的头文件和库文件的路径。 3. 在Qt的代码中,使用FFmpeg的API来实现视频流的播放。以下是一个简单的示例代码: ```cpp #include <QCoreApplication> #include <QDebug> #include <QThread> extern "C" { #include <libavformat/avformat.h> #include <libavcodec/avcodec.h> #include <libswscale/swscale.h> } int main(int argc, char *argv[]) { QCoreApplication a(argc, argv); // 初始化FFmpeg av_register_all(); // 创建AVFormatContext对象 AVFormatContext *formatContext = avformat_alloc_context(); // 打开视频流 if (avformat_open_input(&formatContext, "rtsp://your_rtsp_url", nullptr, nullptr) != 0) { qDebug() << "无法打开视频流"; return -1; } // 查找视频流信息 if (avformat_find_stream_info(formatContext, nullptr) < 0) { qDebug() << "无法获取视频流信息"; return -1; } // 查找视频流索引 int videoStreamIndex = -1; for (int i = 0; i < formatContext->nb_streams; i++) { if (formatContext->streams[i]->codecpar->codec_type == AVMEDIA_TYPE_VIDEO) { videoStreamIndex = i; break; } } // 如果找不到视频流索引,退出程序 if (videoStreamIndex == -1) { qDebug() << "找不到视频流"; return -1; } // 获取视频解码器参数 AVCodecParameters *codecParameters = formatContext->streams[videoStreamIndex]->codecpar; // 查找视频解码器 AVCodec *codec = avcodec_find_decoder(codecParameters->codec_id); if (codec == nullptr) { qDebug() << "找不到视频解码器"; return -1; } // 创建解码器上下文 AVCodecContext *codecContext = avcodec_alloc_context3(codec); if (avcodec_parameters_to_context(codecContext, codecParameters) < 0) { qDebug() << "无法创建解码器上下文"; return -1; } // 打开解码器 if (avcodec_open2(codecContext, codec, nullptr) < 0) { qDebug() << "无法打开解码器"; return -1; } // 创建帧对象 AVFrame *frame = av_frame_alloc(); // 创建解码后的帧对象 AVFrame *decodedFrame = av_frame_alloc(); // 创建解码后的帧的缓冲区 uint8_t *buffer = nullptr; int bufferSize = av_image_get_buffer_size(AV_PIX_FMT_RGB24, codecContext->width, codecContext->height, 1); buffer = (uint8_t *)av_malloc(bufferSize * sizeof(uint8_t)); av_image_fill_arrays(decodedFrame->data, decodedFrame->linesize, buffer, AV_PIX_FMT_RGB24, codecContext->width, codecContext->height, 1); // 创建视频转换上下文 SwsContext *swsContext = sws_getContext(codecContext->width, codecContext->height, codecContext->pix_fmt, codecContext->width, codecContext->height, AV_PIX_FMT_RGB24, SWS_BILINEAR, nullptr, nullptr, nullptr); // 读取视频帧 AVPacket packet; while (av_read_frame(formatContext, &packet) >= 0) { if (packet.stream_index == videoStreamIndex) { // 解码视频帧 avcodec_send_packet(codecContext, &packet); avcodec_receive_frame(codecContext, frame); // 转换视频帧格式 sws_scale(swsContext, frame->data, frame->linesize, 0, codecContext->height, decodedFrame->data, decodedFrame->linesize); // 在这里可以将解码后的帧显示到界面上 // 延时一段时间,模拟视频播放 QThread::msleep(40); } av_packet_unref(&packet); } // 释放资源 av_frame_free(&frame); av_frame_free(&decodedFrame); avcodec_free_context(&codecContext); avformat_close_input(&formatContext); avformat_free_context(formatContext); return a.exec(); } ``` 请注意,上述代码只是一个简单的示例,实际的视频播放功能可能需要更多的处理和错误处理。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值