1.参考笔记
<<webrtc QOS方法八(JitterBuffer)>>
代码版本M79
2.RtpStreamsSynchronizer 音视频同步
分别传入video和audio的receivestream

这是一个独立的模块,ProcessThreadImpl里调用process接口
内部分别获取音视频同步信息,获取出来的syncable::info里面包含了发送端的ntp和rtp_timestamp
ntp是一个绝对时间轨时间戳,rtp是音视频各自的时间戳

然后就可以计算音视频当前播放相差的时间

再根据info里的音视频当前的延迟时间,计算新的音视频延迟

分别设置到音视频的Timing里面去




这个参数就很熟悉了吧,在前一篇里有,我们在计算渲染时间戳的时候会用到


395

被折叠的 条评论
为什么被折叠?



