## RTCP报文解析
WEBRTC发送 RTP推送数据流小结
这篇文章是对webrtc中,从Capture采集YUV数据,到将YUV编码成H264Frame,再将H264Frame打包成RTP数据包,最终通过发送线程发送出去的流程。
RTP数据包的封装格式可以参考:WEBRTC浅析(一) H264 RTP接收数据流小结
数据流程
-
VideCapture 采集YUV数据,通过OnFrame接口把YUV发送给ViEEncoder。
-
ViEEncoder收到YUV数据后,会进行一下处理:
- 通过UpdateChannelParemeters更新encoder参数。
- 如果发现encoder参数有变化,通过SetEncoderParameters,通知VCMGenericEncoder更改encoder的帧率等信息。
- 调用VCMGenericEncoder 的Encode接口,对这一帧YUV数据进行编码。
-
如果编码完成,会通过VCMGenericEncoder的OnEncodedImage接口,回调编码后的H264Frame。
-
H264Frame送到RTPSenderVideo,这里会做两件事情:
- 把H264Frame送给RtpPacketizer,打包成RTP数据包。
- 把生成的RTP包送给RsfecGenerator,生成对应的FEC数据包。
-
最后调用SendToNetwork接口,把RTP包和FEC包,插入到PacedSender的发送队列中进行发送。PacedSender主要有以下两个功能:
- 会单独起一个线程进行packet的发送。
- 在每次发送之前,会更具当前bitrate计算适合发送的数据量,一旦此次线程发送的数据量达到预算值,立即跳出此次发送。这是为了把大量数据分摊在多个发送循环中进行发送,避免一次发送过多数据而超出网络的承受能力。