FFMPEG解码流程
1. 注册所有容器格式和CODEC:av_register_all() 2. 打开文件:av_open_input_file() 3. 从文件中提取流信息:av_find_stream_info() 4. 穷举所有的流,查找其中种类为CODEC_TYPE_VIDEO 5. 查找对应的解码器:avcodec_find_decoder() 6. 打开编解码器:avcodec_open() 7. 为解码帧分配内存:avcodec_alloc_frame() 8. 不停地从码流中提取出帧数据:av_read_frame() 9. 判断帧的类型,对于视频帧调用:avcodec_decode_video() 10. 解码完后,释放解码器:avcodec_close() 11. 关闭输入文件:av_close_input_file() 首先第一件事情就是开一个视频文件并从中得到流。我们要做的第一件事情就是使用av_register_all();来初始化libavformat/libavcodec: 这一步注册库中含有的所有可用的文件格式和编码器,这样当打开一个文件时,它们才能够自动选择相应的文件格式和编码器。av_register_all()只需调用一次,所以,要放在初始化代码中。也可以仅仅注册个人的文件格式和编码。 下一步,打开文件: AVFormatContext *pFormatCtx; 下一步,我们需要取出包含在文件中的流信息: AVFormatContext 结构体 dump_format(pFormatCtx, 0, filename,false);//我们可以使用这个函数把获取到得参数全部输出。 for(i=0; i<pFormatCtx->nb_streams;i++) 接下来就需要寻找解码器 AVCodec *pCodec; avcodec_open(pCodecCtx,pCodec); AVFrame *pFrame; /开始解码/// 第一步当然是读数据: 我们将要做的是通过读取包来读取整个视频流,然后把它解码成帧,最后转换格式并且保存。 while(av_read_frame(pFormatCtx,&packet)>=0) { packet.data, packet.size); img_convert((AVPicture *)pFrameRGB,PIX_FMT_RGB24,(AVPicture*)pFrame,pCodecCtx->pix_fmt,pCodecCtx->width,pCodecCtx->height);//转换 SaveFrame(pFrameRGB,pCodecCtx->width,pCodecCtx->height,i); //保存数据 av_free_packet(&packet); av_read_frame()读取一个包并且把它保存到AVPacket结构体中。这些数据可以在后面通过av_free_packet()来释放。函数avcodec_decode_video()把包转换为帧。然而当解码一个包的时候,我们可能没有得到我们需要的关于帧的信息。因此,当我们得到下一帧的时候,avcodec_decode_video()为我们设置了帧结束标志frameFinished。最后,我们使用img_convert()函数来把帧从原始格式(pCodecCtx->pix_fmt)转换成为RGB格式。要记住,你可以把一个AVFrame结构体的指针转换为AVPicture结构体的指针。最后,我们把帧和高度宽度信息传递给我们的SaveFrame函数。 到此解码完毕,显示过程使用SDL完成考虑到我们以后会使用firmware进行显示操作,SDL忽略不讲。 音视频同步 DTS(解码时间戳)和PTS(显示时间戳) 当我们调用av_read_frame()得到一个包的时候,PTS和DTS的信息也会保存在包中。但是我们真正想要的PTS是我们刚刚解码出来的原始帧的PTS,这样我们才能知道什么时候来显示它。然而,我们从avcodec_decode_video()函数中得到的帧只是一个AVFrame,其中并没有包含有用的PTS值(注意:AVFrame并没有包含时间戳信息,但当我们等到帧的时候并不是我们想要的样子)。。我们保存一帧的第一个包的PTS:这将作为整个这一帧的PTS。我们可以通过函数avcodec_decode_video()来计算出哪个包是一帧的第一个包。怎样实现呢?任何时候当一个包开始一帧的时候,avcodec_decode_video()将调用一个函数来为一帧申请一个缓冲。当然,ffmpeg允许我们重新定义那个分配内存的函数。计算前一帧和现在这一帧的时间戳来预测出下一个时间戳的时间。同时,我们需要同步视频到音频。我们将设置一个音频时间audioclock;一个内部值记录了我们正在播放的音频的位置。就像从任意的mp3播放器中读出来的数字一样。既然我们把视频同步到音频,视频线程使用这个值来算出是否太快还是太慢。 用FFMPEGSDK进行视频转码压缩时解决音视频不同步问题的方法(转) ffmpeg 用FFMPEGSDK进行视频转码压缩的时候,转码成功后去看视频的内容,发现音视频是不同步的。这个的确是一个恼火的事情。我在用FFMPEGSDK做h264格式的FLV文件编码Filter的时候就碰到了这个问题。 请问avcodec_decode_video解码的帧为什么后面的比前面的pts小呢?请问如下代码: 答复: Because you have B - Frame 问: 哦,那是不是我的pts不能这么算呢?而是要每次+1,对吗?那么,packet中的pts和dts要用在什么地方呢?我这样按存储顺序进行解码的话,显示之前是不是要自己进行缓存呢?谢谢! 另外,还有个问题,既然解码的时候,不一定是按照pts递增的顺序得到的解码后的画面,那我在编码图像的时候,是应该按照解码出来的帧顺序进行编码吗?还是把帧先缓存起来,最后严格接照图像的显示顺序来编码呢?用代码来表示,就是: 答: the output of decoderis the right order for display because I/Pframes will be cacheduntil next I/P 理解: Decoder 后output的pts 是按正常的顺序,即显示的顺序输出的,如果有B帧,decoder会缓存。 但encoder后,输出的是按dts输出的。 Pts,dts并不是时间戳,而更应该理解为frame的顺序序列号。由于每帧frame的帧率并不一定是一致的,可能会变化的。转换为时间戳的话,应该是(pts*帧率)。为加深理解 可以将pts比做是第pts帧frame,假设每帧的帧率不变的话,则显示的时间戳为(pts*帧率),如果考虑帧率变化的,则要想办法将(pts*当前的帧率)累加到后面。 在tutorial5中在decode 下增加trace后打印情况: len1 =avcodec_decode_video(is->video_st->codec,pFrame,&frameFinished, 其中播一个mp4文件的打印情况: ----------------------------------------------------------------------------- avcodec_decode_videopacket->pts:1ae,packet->dts:0 avcodec_decode_videopFrame->pkt_pts:0,pFrame->pkt_dts:80000000,pFrame->pts:0 avcodec_decode_video *(uint64_t*)pFrame->opaque:1ae ----------------------------------------------------------------------------- avcodec_decode_videopacket->pts:1af,packet->dts:0 avcodec_decode_videopFrame->pkt_pts:0,pFrame->pkt_dts:80000000,pFrame->pts:0 avcodec_decode_video *(uint64_t*)pFrame->opaque:1af ----------------------------------------------------------------------------- avcodec_decode_videopacket->pts:24c,packet->dts:0 avcodec_decode_videopFrame->pkt_pts:0,pFrame->pkt_dts:80000000,pFrame->pts:0 avcodec_decode_video *(uint64_t*)pFrame->opaque:1ac ----------------------------------------------------------------------------- avcodec_decode_videopacket->pts:24d,packet->dts:0 avcodec_decode_videopFrame->pkt_pts:0,pFrame->pkt_dts:80000000,pFrame->pts:0 avcodec_decode_video *(uint64_t*)pFrame->opaque:24d ----------------------------------------------------------------------------- avcodec_decode_videopacket->pts:24e,packet->dts:0 avcodec_decode_videopFrame->pkt_pts:0,pFrame->pkt_dts:80000000,pFrame->pts:0 avcodec_decode_video*(uint64_t*)pFrame->opaque:24e 以下为播放rm文件的情况: ----------------------------------------------------------------------------- avcodec_decode_videopacket->pts:1831b,packet->dts:0 avcodec_decode_videopFrame->pkt_pts:0,pFrame->pkt_dts:80000000,pFrame->pts:0 avcodec_decode_video *(uint64_t*)pFrame->opaque:1831b ----------------------------------------------------------------------------- avcodec_decode_videopacket->pts:18704,packet->dts:0 avcodec_decode_videopFrame->pkt_pts:0,pFrame->pkt_dts:80000000,pFrame->pts:0 avcodec_decode_video *(uint64_t*)pFrame->opaque:18704 ----------------------------------------------------------------------------- avcodec_decode_videopacket->pts:18aed,packet->dts:0 avcodec_decode_videopFrame->pkt_pts:0,pFrame->pkt_dts:80000000,pFrame->pts:0 avcodec_decode_video *(uint64_t*)pFrame->opaque:18aed ----------------------------------------------------------------------------- avcodec_decode_videopacket->pts:18ed6,packet->dts:0 avcodec_decode_videopFrame->pkt_pts:0,pFrame->pkt_dts:80000000,pFrame->pts:0 avcodec_decode_video *(uint64_t*)pFrame->opaque:18ed6 ----------------------------------------------------------------------------- avcodec_decode_videopacket->pts:192bf,packet->dts:0 avcodec_decode_videopFrame->pkt_pts:0,pFrame->pkt_dts:80000000,pFrame->pts:0 avcodec_decode_video *(uint64_t*)pFrame->opaque:192bf ----------------------------------------------------------------------------- avcodec_decode_videopacket->pts:196a8,packet->dts:0 avcodec_decode_videopFrame->pkt_pts:0,pFrame->pkt_dts:80000000,pFrame->pts:0 avcodec_decode_video *(uint64_t*)pFrame->opaque:196a8 可以看出有的pts是+1累加,有的是加了很多,但都是按顺序累加的。当传人decoder前的packet有pts时,则decoder后获取的frame将会赋值packet的pts;当传人的packet只是一帧的部分数据或是B帧,由于decoder出来的frame要按正常的pts顺序输出,有可能decoder不会获取到frame,或decoder内部会缓存也不会输出frame,即frame的pts会为空。Frame pts(即opaque)为空的话则会看frame->dts,dts都没有的话才认为frame->pts为0. 对于: pts *=av_q2d(is->video_st->time_base);即pts*帧率 / synchronize_video考虑了3中情况: 1. 2. 3. static double synchronize_video(VideoState *is,AVFrame*src_frame, double pts) { /很关键:前面传进来的pts已经是时间戳了,是当前frame开始播放的时间戳, /下面frame_delay是该帧显示完将要花费的时间,(pts+frame_delay)也即是/预测的下一帧将要播放的时间戳。 //重复多帧的话要累加上 } ///开定时器去显示帧队列中的已经decode过的数据,按前面的分析我们已经知道帧队列中的数据已经是按pts顺序插入到队列中的。Timer的作用就是有帧率不一致及重复帧的情况造成时间戳不是线性的,有快有慢,从而tutorial5才有timer的方式来播放:追赶 以下是一个网友很直观浅显的例子解释: ccq(183892517) 17:05:21 if(packet->dts==AV_NOPTS_VALUE 是不是就是没有获取到dts的情况? David Cen(3727567) 17:06:44 就是有一把尺子一只蚂蚁跟着一个标杆走 另外:此时vp–>pts获取到的pts已经转化为时间戳了,这个时间戳为就是当前帧显示结束的时间戳,也即是下一帧将显示的预测时间戳。 static void video_refresh_timer(void *userdata) { //也就是说在diff这段时间中声音是匀速发生的,但是在delay这段时间frame的显示可能就会有快//慢的区别。 当然如果diff大于AV_NOSYNC_THRESHOLD,即快进的模式了,画面跳动太大,不存在音视频同步的问题了。 |
[转载]ffmpeg编解码详细过程
原文出处:
http://www.360doc.com/content/11/1117/09/8050095_165108638.shtml