ffmpeg+sdl教程----编写一个简单的播放器5(同步视频到音频)

    个人认为,这这部分教程的新增代码量虽然不是最多的,难度却是最大的,重复看了多次才明白,因为有两个问题的困扰,搞得还不清楚:

1.音频和视频既然都有各自的时间戳,各自按各自的时间戳来播放不就行了,为什么还需要同步呢?

2.如果要把视频同步到音频,怎么同步?或者说以什么标准来同步?

    第一个问题的答案可能是,一是音频和视频的开始播放的时间是不一样,二是播放每帧音频或视频时可能必须把解码数据,视频格式转换消耗的时间考虑进来,解码数据,视频格式转换等步骤又和不同的机器配置相关,设想一下这种极端的情况,有一帧图片应该在此时刻播放了(根据时间戳),而解码器还没来及解码完(程序代码或者机器配置太烂),解码完后,可能需要丢弃该帧,不然视频赶不上音频。

    第二个问题的答案也不是很清楚,但根据这个教程的代码来分析,特别是video_refresh_timer函数中关于时间戳部分的代码告诉了这个问题答案,首先大结构体VideoState保存了两个用于同步的两个重要变量audio_clock和video_clock,分别保存了音频和视频的播放了多长时间,也就是教程中说的音频和视频的内部时钟。把视频同步到音频的方法就是比较video_clock(当前视频播放到的时刻)和audio_clock(当前音频播放到的时刻)差的绝对值如果大于同步阈值sync_threshold,就重新计算延迟delay,这时视频如果播放得太快就直接让延迟delay = 2*delay,反之则立即播放。而video_clock和audio_clock之差在可接受范围内,delay的值直接取上一帧和当前帧的延迟,delay将被用于下一帧的播放延迟。

    时钟的同步,教程中分为三个部分。

    第一部分讲如何保存视频帧的时间戳和video_clock,代码主要在video_thread函数中,该函数中的这行代码len1 = avcodec_decode_video(is->video_st->codec, pFrame, &frameFinished,packet->data, packet->size);解码packet中的数据到pFrame时,会调用我们自己些的帧内存分配函数our_get_buffer,把第一个包的时间戳保存到帧pFrame中(一个帧可能由多个数据包组成),帧的时间戳优先取最后一个包的dts,没有才取第一个包的pts,都没有就取video_clock。

   video_thread函数在解码完一帧后,立马调用synchronize_video函数,synchronize_video函数的作用就是维护video_clock的值,让video_clock变量始终保存视频播放了多长时间的信息,其中还考虑到了帧重复的问题。得到当前视频帧的时间戳相对音频来说简单些。

    第二部分讲,假设我们能得到当前音频的时间戳,如何让视频同步到音频,也就是上面第二个问题的答案。

    第三部分讲如何获得当前音频帧的时间戳,代码主要在get_audio_clock函数中,这个并不是简单地返回is->audio_clock了事,如果那样做就忽略了把数据包转移到输出缓冲的时间花费,我们声音时钟中记录的时间比实际的要早太多。所以我们必须要检查一下我们还有多少没有写入。audio_clock的维护工作交给了audio_decode_frame函数来处理,首先在函数末尾初始化is->audio_clock = av_q2d(is->audio_st->time_base)*pkt->pts;然后解码完一帧音频后又有更新。

    《代码5》

转自链接点击打开链接

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值