想要播放一个视频,需要拿到视频画面和音频数据,然后对比一下他们的时间,让他们的时间对齐,再放入显示器和扬声器中播放。在FFmpeg里,对于视频,它把画面一帧一帧增加认为是一个单元,因此对于视频来说,一个帧率为10帧每秒的视频,那么在1秒内它就是1 2 3 4 5 6 7 8 9 10这样的一个计数,可以简单地认为这里的1 2 3 4 5 6 7 8 9 10就是其中的一个时间戳(pts)
解码部分:
AVStream.time_base是AVPacket中pts和dts的时间单位。解码时通过av_read_frame读取数据到AVPacket,此时AVPacket有一个pts,该pts是以AVStream.time_base为基准的。我们需要将此pts转换成解码后的pts,可以通过av_packet_rescale_ts来把Stream的time_base转换成AVCodecContext的time_base,对于视频来讲,这里的AVCodecContext的time_base是帧率的倒数。通过解码后得到视频帧AVFrame,这里的AVFrame会有一个pts,该pts是以AVCodecContext的time_base为基准的,如果我们要拿这帧画面去显示的话,我们还要转换成显示的时间,即从AVCodecContext的time_base转换成1000000的timebase,最后得到的是我们习惯的微秒单位。
视频解码过程中的时间基转换处理:
AVFormatContext *ifmt_ctx;
AVStream *</