FFmpeg视频解码,保存原始YUV数据(基于FFmpeg4.1)

FFmpeg视频解码,保存原始YUV数据(使用FFmpeg4.1)

网上文章都太老,本文基于FFmpeg4.1,没有使用任何弃用的API,要运行先配置环境

解码流程关键函数:

  1. avformat_open_input()
  2. avformat_find_stream_info()
  3. av_read_frame()
  4. avcodec_send_packet()提供原始数据包数据作为解码器的输入
  5. avcodec_receive_frame()从解码器返回解码的输出数据。

YUV色彩模型,Y信号分量为亮度,U、V信号分量色度
YUV是不同于RGB的一种色彩模型,具体百度FFFmpeg解码出来一般是yuv420p数据(AV_PIX_FMT_YUV420P)

解码后的数据储存在AVFrame *frame_yuv中
frame_yuv->data[0] //y
frame_yuv->data[1] //u
frame_yuv->data[2] //v

frame_yuv->linesize[0] //y宽度
frame_yuv->linesize[1] //u宽度
frame_yuv->linesize[2] //v宽度

如果是yuv420p,那么每一帧 y:u:v 数据大小之比为 4:1:1
这里可以把yuv数据分别看成三个矩形,y长为视频每帧宽度width,宽为视频每帧高度height
那么u和v矩形大小一样,都是宽度为width/2,高度为height/2的矩形。

frame_yuv->linesize[0]代表解码出来的y分量宽度,它和视频每帧宽度width有什么不同呢?

The linesize may be larger than the size of usable data – theremay
be extra padding present for performance reasons.

翻译:linesize 可能大于可用数据的大小——出于性能原因,可能存在额外的填充。
我理解的意思就是linesize[0]可能会大于y分量实际宽度(视频宽度width)。

如何把每一帧yuv数据保存在文件中?

frame_yuv->data[0] 是个一维数组(区别于frame_yuv->data),一维数组如何装下二维矩形数据呢(上面描述的矩形),视频解码后把数据一行一行地按着顺序储存frame_yuv->data[0]里面,所以我们也要一行一行读取。
第i需要偏移i * frame_yuv->linesize[0] 起始地址就是 frame_yuv->data[0] + i * frame_yuv->linesize[0],然后再取出width长度的数据就是第i行y分量,y分量高度为height,所以i的值从0到height。u、v分量高度为frame_yuv->height / 2,在frame_yuv->data[1、2] 中宽度为frame_yuv->linesize[1、2] ,实际宽度为frame_yuv->height / 2。
yuv文件好像没有头部信息,所以我们不用管头部。

int loop = frame_yuv->height / 2;
int len_uv = frame_yuv->width / 2;//u、v分量
for(int i = 0;i < frame_yuv->height;i++){
    out.write((char *)(frame_yuv->data[0] + i * frame_yuv->linesize[0]),frame_yuv->width);
}
for(int i = 0;i < loop;i++){
    out.write((char *)(frame_yuv->data[1] + i * frame_yuv->linesize[1]),len_uv);
}
for(int i = 0;i < loop;i++){
    out.write((char *)(frame_yuv->data[2] + i * frame_yuv->linesize[2]),len_uv);
}

这里只保存了100帧,文件大小为widthheight1.5*100 Byte,文件很大,100帧1080p就300多M,25fps的话只能播放4s,可以看出视频压缩的重要性
文件保存后如何验证呢?

验证

使用 ffplay.exe可以播放yuv文件
命令:

ffplay -video_size 1920x1080 -i "E:\out.yuv"

按照实际视频尺寸设置参数,设置不正确的话播放会错误

以下是完整代码:

#pragma comment(lib,"avformat.lib")
#pragma comment(lib,"avcodec.lib")
#pragma comment(lib,"avutil.lib")
#pragma comment(lib,"avdevice.lib")
#pragma comment(lib,"swresample.lib")
#pragma comment(lib,"postproc.lib")
#pragma comment(lib,"swscale.lib")

#include <iostream>
#include <fstream>
extern "C"{
#include <libavformat/avformat.h>
}

using std::cin;
using std::cout;
using std::endl;
using std::ofstream;
using std::ios_base;

int main(){
    AVFormatContext *fmt_ctx = nullptr;
    const char * in_path = "E:\\whys_pr.mp4";
    const char * out_path = "E:\\out.yuv";
    if(avformat_open_input(&fmt_ctx,in_path,nullptr,nullptr) != 0){
    	cout << "avformat_open_input错误" << endl;
    	system("pause");
    	return 1;
	}

    //打印出视频信息
    //av_dump_format(fmt_ctx,0,in_path,0);

    if(avformat_find_stream_info(fmt_ctx,nullptr) < 0){
        avformat_free_context(fmt_ctx);
        cout << "avformat_find_stream_info错误" << endl;
        system("pause");
        return 1;
    }

    AVCodec *codec;
    AVCodecContext * cd_ctx;
    unsigned video_index = 0;

    for(unsigned i = 0;fmt_ctx->nb_streams;i++){
        //寻找到视频流
        if(fmt_ctx->streams[i]->codecpar->codec_type == AVMEDIA_TYPE_VIDEO){
            video_index = i;

            //获取到视频流
            AVStream *streams = fmt_ctx->streams[i];
            //streams->r_frame_rate
            cout << ((float)streams->avg_frame_rate.num) / streams->avg_frame_rate.den << "fps,";

            //视频编码类型
            cout << avcodec_get_name(streams->codecpar->codec_id) << endl;

            codec = avcodec_find_decoder(streams->codecpar->codec_id);
            if(!codec){
                cout << "没有找到解码器" << endl;
                system("pause");
                return 1;
            }

            //分配AVCodecContext空间
            cd_ctx = avcodec_alloc_context3(codec);

            //填充数据
            avcodec_parameters_to_context(cd_ctx,streams->codecpar);

            //视频尺寸
            cout << streams->codecpar->width << 'x' << streams->codecpar->height << endl;
            break;
        }
    }

    /* open it */

    if(avcodec_open2(cd_ctx,codec,NULL) < 0){
        cout << "avcodec_open2错误" << endl;
        system("pause");
        return 1;
    }

    AVPacket *pkt = av_packet_alloc();
    if(!pkt){
        cout << "av_packet_alloc错误" << endl;
        system("pause");
        return 1;
    }

    AVFrame *frame_yuv = av_frame_alloc();
        if(!frame_yuv){
        cout << "av_frame_alloc错误" << endl;
        system("pause");
        return 1;
    }

    //打开输出视频的文件
    ofstream out = ofstream(out_path,ios_base::binary);

    int frame_count = 0;//记录获取的帧数

    while(av_read_frame(fmt_ctx,pkt) >= 0 && frame_count < 100){//这里只获取100帧了

        //找到视频流
        if(pkt->stream_index == video_index){
            if(avcodec_send_packet(cd_ctx,pkt) != 0){
                cout << "avcodec_send_packet错误" << endl;
                break;
             }
            while(avcodec_receive_frame(cd_ctx,frame_yuv) == 0){

                frame_count++;

                //AV_PIX_FMT_YUV420P,  ///< planar YUV 4:2:0, 12bpp, (1 Cr & Cb sample per 2x2 Y samples)
                cout << "解码到第" << cd_ctx->frame_number << "帧" << endl;
                for(int i = 0;i < frame_yuv->height;i++){
                    out.write((char *)(frame_yuv->data[0] + i * frame_yuv->linesize[0]),frame_yuv->width);
                }

                int loop = frame_yuv->height / 2;
                int len_uv = frame_yuv->width / 2;

                for(int i = 0;i < loop;i++){
                    out.write((char *)(frame_yuv->data[1] + i * frame_yuv->linesize[1]),len_uv);
                }
                for(int i = 0;i < loop;i++){
                    out.write((char *)(frame_yuv->data[2] + i * frame_yuv->linesize[2]),len_uv);
                }
            }
        }
    }

    cout << "解码完毕,文件保存在" << out_path << endl;

    out.close();

    av_packet_free(&pkt);
    avcodec_close(cd_ctx);
    avcodec_free_context(&cd_ctx);
    av_frame_free(&frame_yuv);
    avformat_close_input(&fmt_ctx);

    system("pause");
    return 0;
}
  • 6
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
### 回答1: ffmpeg是一个广泛使用的开源多媒体处理库,支持多种音视频解码格式。在使用ffmpeg进行JPG解码时,它会将JPG图像转换为YUV格式。YUV是一种用于存储和传输彩色图像的格式,它将亮度(Y)和色度(U和V)分离开来。 首先,ffmpeg会读取JPG图像文件,并将其解析为像素数据。然后,它会根据JPG中的颜色信息,将像素数据转换为YUV格式。Y分量表示图像的亮度信息,U和V分量表示图像的色度信息。 在进行YUV转换时,ffmpeg会根据JPG图像的色彩空间信息进行自适应处理。常见的色彩空间包括RGB和YCbCr,其中YCbCr就是一种YUV的变体。通过将RGB图像转换为YCbCr,可以更有效地压缩图像数据,并减少存储或传输所需的空间和带宽。 因此,当使用ffmpeg解码JPG图像时,它会将输入的JPG转换为YUV格式,并提供Y,U和V三个分量的像素数据。这些像素数据可以根据需要进行进一步的处理或者用于其他操作,如视频编码、图像处理等。 总之,使用ffmpeg解码JPG图像时,它会将图像转换为YUV格式,将亮度和色度信息分离开来,以便于后续的处理和应用。 ### 回答2: FFmpeg是一个开源的多媒体处理工具集,可以实现音视频的编解码、转码、处理等功能。在FFmpeg中,可以通过使用libjpeg库来实现JPG格式的解码。 JPG是一种常见的图片压缩格式,其编码方式使用了基于离散余弦变换(DCT)的算法。要解码JPG图片到YUV格式,需要以下几个步骤: 1. 打开JPG文件:通过FFmpeg提供的接口,可以打开并读取JPG文件。 2. 解码JPG图像:使用libjpeg库提供的函数,可以将JPG图像解码为RGB(红绿蓝)格式。 3. 转换为YUV格式:在FFmpeg中,可以使用swscale库提供的函数将RGB图像转换为YUV格式。YUV是一种常用的视频颜色空间,其中包括亮度(Y)和色度(U、V)分量。 4. 保存YUV图像:将转换后的YUV图像保存到文件中,或者用于后续的视频处理。 需要注意的是,解码JPG到YUV格式是一个比较复杂的过程,需要对图像编码和颜色空间转换等进行处理。在使用FFmpeg进行解码时,可以针对具体的需求选择不同的设置和参数,以获得所需的解码效果。 总之,使用FFmpeg可以方便地实现JPG图像解码YUV格式的功能,通过调用FFmpeg提供的接口和库函数,可以完成文件的打开、图像的解码和颜色空间的转换等操作。这为后续的视频处理提供了基础。 ### 回答3: ffmpeg是一个开源的多媒体处理工具,可以在命令行中使用。jpg是一种常见的图片格式,而yuv则是一种常见的视频像素格式。 使用ffmpeg解码jpg图片到yuv像素格式的过程可以分为以下几步: 1. 安装ffmpeg:在电脑上安装ffmpeg软件,可以从官方网站或其他途径下载并安装。 2. 打开命令行界面:在电脑上打开命令行界面,可以通过搜索或者运行cmd命令打开。 3. 编写解码命令:在命令行中输入ffmpeg解码命令。命令的基本格式如下所示: `ffmpeg -i input.jpg -pix_fmt yuv420p output.yuv` 这条命令中,`-i input.jpg`表示输入的jpg图片文件,`-pix_fmt yuv420p`表示输出的像素格式为yuv420p,`output.yuv`表示输出的yuv文件名。 4. 执行命令:在命令行中按下回车键执行解码命令。此时,ffmpeg会加载输入的jpg文件,将其解码yuv420p格式,并输出到指定的文件中。 通过以上步骤,我们可以使用ffmpeg将jpg图片解码yuv像素格式。这样的操作对于一些视频处理任务或者需要将图片转换为视频的应用场景非常有用。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值