• FFmpeg库简介
FFmpeg一共包含8个库:
▫ avcodec:编解码(最重要的库)。
▫ avformat:封装格式处理。
▫ avfilter:滤镜特效处
▫ avdevice:各种设备的输入输出。
▫ avutil:工具库(大部分库都需要这个库的支持)
▫ postproc:后加工。
▫ swresample:音频采样数据格式转换
▫ swscale:视频像素数据格式转换
• FFmpeg解码函数简介
▫ av_register_all():注册所有组件。
▫ avformat_open_input():打开输入视频文件。
▫ avformat_find_stream_info():获取视频文件信息
▫ avcodec_find_decoder():查找解码器。
▫ avcodec_open2():打开解码器。
▫ av_read_frame():从输入文件读取一帧压缩数
▫ avcodec_decode_video2():解码一帧压缩数据。
▫ avcodec_close():关闭解码器。
▫ avformat_close_input():关闭输入视频文件
• FFmpeg数据结构简介
▫ AVFormatContext
封装格式上下文结构体,也是统领全局的结构体,保存了视频文件封装格式相关信息
▫ AVInputFormat
每种封装格式(例如FLV, MKV, MP4, AVI)对应一个该结构体。
▫ AVStream
视频文件中每个视频(音频)流对应一个该结构体。
▫ AVCodecContext
编码器上下文结构体,保存了视频(音频)编解码相关信息。
▫ AVCodec
每种视频(音频)编解码器(例如H.264解码器)对应一个该结构体。
▫ AVPacket
存储一帧压缩编码数据。
▫ AVFrame
存储一帧解码后像素(采样)数据。
• FFmpeg数据结构分析
▫ AVFormatContext
iformat:输入视频的AVInputFormat
nb_streams :输入视频的AVStream 个数
streams :输入视频的AVStream []数组
duration :输入视频的时长(以微秒为单位)
bitrate :输入视频的
▫ AVInputFormat
name:封装格式名称
long_name:封装格式的长名称
extensions:封装格式的扩展名
id:封装格式ID
一些封装格式处理的接口
▫ AVStream
id:序号
codec:该流对应的AVCodecContext (已过时)
timebase:该流的时基
r_frame_rate:该流的帧率
codecpar:取代codec对应的结构体为AVCodecParameters
▫ AVCodecContext
codec:编解码器的AVCodec
width, height:图像的宽高(只针对视频)
pix_fmt:像素格式(只针对视频)
sample_rate:采样率(只针对音频)
channels:声道数(只针对音频)
sample_fmt:采样格式(只针对音频)
▫ AVCodec
name:编解码器名称
long_name:编解码器长名称
type:编解码器类型
id:编解码器ID
一些编解码的接口
▫ AVPacket
pts:显示时间戳
dts :解码时间戳
data :压缩编码数据
size :压缩编码数据大小
stream_index :所属的AVStream
▫ AVFrame
data:解码后的图像像素数据(音频采样数据)。
linesize:对视频来说是图像中一行像素的大小;对音频来说是一个声道的音频帧的大小。
width, height:图像的宽高(只针对视频)。
key_frame:是否为关键帧(只针对视频) 。
pict_type:帧类型(只针对视频) 。例如I,P,B。
demo:
/*
*
* 最简单的基于FFmpeg的解码器
*
* 作者:SQ
* Simplest FFmpeg Decoder
* 本程序实现了视频文件的解码(支持HEVC,H.264,MPEG2等)。
* 是最简单的FFmpeg视频解码方面的教程。
* 通过学习本例子可以了解FFmpeg的解码流程。
* This software is a simplest video decoder based on FFmpeg.
* Suitable for beginner of FFmpeg.
*
*/
#include <stdio.h>
#define __STDC_CONSTANT_MACROS
extern "C"
{
#include "libavcodec/avcodec.h"
#include "libavformat/avformat.h"
#include "libswscale/swscale.h"
#include "SDL/SDL.h"
};
int main(int argc, char* argv[])
{
AVFormatContext *pFormatCtx; //封装格式上下文结构体
int i, videoindex;
AVCodecContext *pCodecCtx; //解码器上下文结构体
AVCodec *pCodec;
AVFrame *pFrame,*pFrameYUV;
uint8_t *out_buffer;
AVPacket *packet; //存储一帧压缩编码数据
int y_size;
int ret, got_picture;
struct SwsContext *img_convert_ctx;
//输入文件路径
char filepath[]="Titanic.ts";
int frame_cnt;
av_register_all(); //注册所有组件
avformat_network_init(); //初始化网络库 可以打开rtsp http协议的流媒体视频
pFormatCtx = avformat_alloc_context(); //解封装上下文
//打开输入视频文件
if(avformat_open_input(&pFormatCtx,filepath,NULL,NULL)!=0){
printf("Couldn't open input stream.\n");
return -1;
}
//获取视频文件信息
if(avformat_find_stream_info(pFormatCtx,NULL)<0){
printf("Couldn't find stream information.\n");
return -1;
}
videoindex=-1; //一般0是视频流
for(i=0; i<pFormatCtx->nb_streams; i++)
if(pFormatCtx->streams[i]->codec->codec_type==AVMEDIA_TYPE_VIDEO){
videoindex=i;
break;
}
if(videoindex==-1){
printf("Didn't find a video stream.\n");
return -1;
}
pCodecCtx=pFormatCtx->streams[videoindex]->codec;
pCodec=avcodec_find_decoder(pCodecCtx->codec_id);//查找解码器
if(pCodec==NULL){
printf("Codec not found.\n");
return -1;
}
if(avcodec_open2(pCodecCtx, pCodec,NULL)<0){ //打开解码器
printf("Could not open codec.\n");
return -1;
}
/*
* 在此处添加输出视频信息的代码
* 取自于pFormatCtx,使用fprintf()
*/
FILE * fp= fopen("output.txt","wb+");
fprintf(fp, "格式 %d\n", pFormatCtx->duration);
fprintf(fp, "封装格式名称%s\n", pFormatCtx->iformat->long_name);
fprintf(fp, "比特率%d\n", pFormatCtx->bit_rate);
fprintf(fp, "帧大小%d\n", pFormatCtx->streams[videoindex]->r_frame_rate);
fprintf(fp, "宽高%d*%d\n", pFormatCtx->streams[videoindex]->codec->width, pFormatCtx->streams[videoindex]->codec->height);
pFrame=av_frame_alloc();
pFrameYUV=av_frame_alloc();
out_buffer=(uint8_t *)av_malloc(avpicture_get_size(PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height));
avpicture_fill((AVPicture *)pFrameYUV, out_buffer, PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height);
packet=(AVPacket *)av_malloc(sizeof(AVPacket));
//Output Info-----------------------------
printf("--------------- File Information ----------------\n");
av_dump_format(pFormatCtx,0,filepath,0);
printf("-------------------------------------------------\n");
img_convert_ctx = sws_getContext(pCodecCtx->width, pCodecCtx->height, pCodecCtx->pix_fmt,
pCodecCtx->width, pCodecCtx->height, PIX_FMT_YUV420P, SWS_BICUBIC, NULL, NULL, NULL);
FILE *fp_h264 = fopen("output.h264", "wb+");
FILE *fp_YUV = fopen("output.yuv", "wb+");
frame_cnt=0;
while(av_read_frame(pFormatCtx, packet)>=0){ //从输入文件读取一帧压缩数据
if(packet->stream_index==videoindex)
{
/*
* 在此处添加输出H264码流的代码
* 取自于packet,使用fwrite()
*/
//直接将内存中的数据写在文件中
fwrite(packet->data,1,packet->size,fp_h264);
//解压一帧压缩数据
ret = avcodec_decode_video2(pCodecCtx, pFrame, &got_picture, packet);
if(ret < 0){
printf("Decode Error.\n");
return -1;
}
if(got_picture){
sws_scale(img_convert_ctx, (const uint8_t* const*)pFrame->data, pFrame->linesize, 0, pCodecCtx->height,
pFrameYUV->data, pFrameYUV->linesize);
printf("Decoded frame index: %d\n",frame_cnt);
/*
* 在此处添加输出YUV的代码
* 取自于pFrameYUV,使用fwrite()
*/
fwrite(pFrameYUV->data[0], 1,pCodecCtx->width*pCodecCtx->height , fp_YUV);
frame_cnt++;
}
}
av_free_packet(packet);
}
fclose(fp_h264);
fclose(fp_YUV);
sws_freeContext(img_convert_ctx);
av_frame_free(&pFrameYUV);
av_frame_free(&pFrame);
avcodec_close(pCodecCtx); //关闭解码器
avformat_close_input(&pFormatCtx); //关闭输入视频文件
return 0;
}
补充小知识:
▫ 解码后的数据为什么要经过sws_scale()函数处理