说明
1. FramedSource 抽象类把音视频的帧数据作为数据源。
2. H264 使用 H264VideoRTPSink 类来消费,也就是把H264数据打包成RTP包。
3. AAC 使用 MPEG4GenericRTPSink 类,来消费。也就是把AAC打包成RTP包。
4. RTP包中可以可以含有一个音视频帧,也可以含有多个音视频帧。
5. 继承 OnDemandServerMediaSubsession 来管理RTSP会话,
6. 会话主要有两个功能。一个是主要是创建会话的子会话,子会话用来传输音频或视频流。
7. 会话还有一个功能是 创建对应的数据消费者,也就是把音视频打包成RTP包。
步骤:
1. 继承 OnDemandServerMediaSubsession 类
1.1 实现 createNewStreamSource (创建数据源,也就是一个或者多个音视频流),这里返回的是 FramedSource 的实例,也就是实现的子类。
如果是H264需要使用H264VideoStreamFramer来把自己实现的FramedSource 子类做一个封装。类似
H264VideoStreamFramer::createNew(envir(), liveSource);
H264VideoStreamFramer用来返回一帧数据,也就是你可以不用一帧一帧的H264数据给live555,H264VideoStreamFramer负责解析出一帧。
如果是AAC,则直接返回自己实现的 FramedSource 子类即可。
1.2 实现 createNewRTPSink,返回对应的数据消费者,AAC是 MPEG4GenericRTPSink,H264是H264VideoRTPSink
2. 继承 FramedSource 类,作为AAC和H264的数据的消费者。可以创建多个实例。
其中需要实现虚函数doGetNextFrame,用来消费音视频数据,这里需要注意不要在这个函数里延时等待数据。可以使用live555实现的延时队列来查询数据。
示例
envir().taskScheduler().scheduleDelayedTask(1000, (TaskFunc *) deliverFrame0, this);