[SimplePlayer] 3. 视频帧同步

Frame Rate

帧率代表的是每一秒所播放的视频图像数目。通常,视频都会有固定的帧率,具体点地说是每一帧的时间间隔都是一样的,这种情况简称为CFR(Constant Frame Rate);另外一种情况就是每一帧的时间间隔不一定相同,即可变帧率,简称为VFR(Variable Frame Rate),现在也有些录像设备支持录制VFR视频了,在录制具有大量静止场景的视频时,采用VFR能降低录制出来的视频的容量大小。

 

 

PTS

通过上文对帧率的描述,我们知道在进行视频播放时,每一帧都应该有自己的播放时刻。不过视频文件中不会直接存放帧的播放时刻,为了保证精度以及节省存储空间,文件中会存储每一帧的PTS(Presentation Time Stamp)以及一个名为time base的参数,PTS是整数,而time base是小数,通过PTS与time base相乘,就能得到视频的播放时刻,单位为秒。大部分的视频格式都支持存放帧的PTS,而在播放的时候,通过对PTS进行计算就能使得视频的每一帧都在合适的时间显示。通常,第一帧的PTS为0。

 

 

同步流程

视频帧有固定的输出时间的话,意味着在解码完成一帧之后,需要进行等待,等到合适的时间才能进行帧的显示。

image

上图为一个视频帧的解码、显示循环。在解码完成一帧后,需要获得当前时间以及当前帧的显示时间,两者的时间差就是需要睡眠的时长。

image

不过由于我们常用的操作系统为非实时系统,因此如果希望执行短时间的休眠,调用sleep通常不会得到非常满意的结果。解决方法就是通过多次休眠更短的时间段,并在被唤醒过后检查是否已经超时,超时即可进行视频帧的输出。

image

 

            //Decode video frame
            avcodec_decode_video2(pCodecCtx, pFrame, &frameFinished, &packet);
            if(frameFinished){
                memcpy(Display.YPlane, pFrame->data[0], bufsize);
                memcpy(Display.UPlane, pFrame->data[1], bufsize/4);
                memcpy(Display.VPlane, pFrame->data[2], bufsize/4);

                vs.frame_last_pts = vs.frame_cur_pts;
                vs.frame_cur_pts = pFrame->pts * time_base * 1000000;
                pts_delay = vs.frame_cur_pts - vs.frame_last_pts;
                vs.cur_display_time = vs.last_display_time + pts_delay;
                //vs.last_frame_displayed = 0;

                if(!vs.is_first_frame){
                    time = av_gettime_relative();
                    delay = vs.cur_display_time - time;
                    while(delay > 0){
                        if(delay > 10000)
                            vs.sleep_time = 10000;
                        else
                            vs.sleep_time = delay;
                        av_usleep(vs.sleep_time);
                        time = av_gettime_relative();
                        delay = vs.cur_display_time - time;
                    }
                    vs.last_display_time = time;
                    DisplayFrame(&Display);
                    //vs.last_frame_displayed = 1;
                }else{
                    vs.last_display_time = av_gettime_relative();
                    DisplayFrame(&Display);
                    vs.is_first_frame = 0;
                    //vs.last_frame_displated = 1;
                }

                SDL_PumpEvents();
            }
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Android 系统中的 SimplePlayer.cpp 文件是一个简单的媒体播放器示例程序,它并不负责将文件编码成 MP4 格式。如果需要将一个视频文件编码成 MP4 格式,可以使用 Android 系统中提供的 MediaCodec 和 MediaMuxer 类来完成。具体的步骤如下: 1. 创建一个 MediaCodec 对象,并将其配置为编码器。可以使用 MediaCodec.createEncoderByType() 方法来创建编码器对象,然后使用 MediaCodec.configure() 方法进行配置,设置输出格式、编码器参数等参数。 2. 创建一个 MediaMuxer 对象,并调用其 addTrack() 方法添加一个音频或视频轨道。可以使用 MediaMuxer 构造函数创建一个对象,然后使用 addTrack() 方法添加轨道。 3. 开始编码和封装视频数据。使用 MediaCodec.start() 方法启动编码器,并调用 MediaCodec.getInputBuffer() 和 MediaCodec.getOutputBuffer() 方法获取输入和输出缓冲区。将视频数据写入输入缓冲区,然后将输出缓冲区中的数据写入 MediaMuxer 中。 4. 结束编码和封装过程,释放资源。在完成编码和封装过程后,需要调用 MediaCodec.stop() 和 MediaCodec.release() 方法释放编码器资源,调用 MediaMuxer.stop() 和 MediaMuxer.release() 方法释放 Muxer 资源,最后关闭文件输出流。 需要注意的是,编码和封装视频数据是一项相对复杂的任务,需要熟练掌握 Android 媒体编码、封装、解码等技术,以及相关的音视频编码标准和格式。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值