转自:http://bbs.csenn.com:88/thread-59-1-1.html
FFmpeg代码里面有ts打包和解包的代码,这里简单介绍下怎么使用吧。
先来看下FFmpeg目录结构:
libavformat :用于各种音视频 封装格式 的生成和解析,包括获取解码所需信息以生成解码上下文结构
和读取音视频帧等功能;
libavcodec :用于各种类型声音/ 图像 编解码;
libavutil :包含一些公共的工具函数;
libswscale :用于视频场景比例缩放、色彩映射转换;
libpostproc :用于后期效果处理;
ffmpeg :该项目提供的一个工具,可用于格式转换、解码或 电视卡 即时编码等;
ffsever :一个 HTTP 多媒体即时广播串流服务器;
ffplay :是一个简单的播放器,使用ffmpeg 库解析和解码,通过SDL显示;
libavformat目录下 mpegtsenc.c,mpegts.c 分别是ts打包和解包的代码:
下面介绍下mpegtsenc.c一些重要函数(原理请看 iso 13818-1):
1)mpegts_write_pat(AVFormatContext *s);
mpegts_write_pmt(AVFormatContext *s, MpegTSService *service)
mpegts_write_sdt(AVFormatContext *s)//节目描述表
pat,pmt这两个表是ts打包最重要的表,这两个表说白了就是多路复用的一个索引,解码器需要更具PAT知道有哪些节目(可以理解为电视节目),根据PMT知道每个节目里面有哪些es流(每个电视节目都有音频和视频),这两个函数一般是不需要改动的;
pat,pmt的信息并不是只是开始打包的时候出现,看mpegts_write_pes代码会发现着两个表是根据retransmit_si_info计算出来的。
看下mpegts_write_pmt部分代码: 从上面看出ts打包支持 MPEG1, MPEG2, MPEG4,h264视频以及PCM,mp2,mp3,AAC,AC3音频,音频方面标准不支持G711等G开头的音频,当然如果自己开发客户端的话是可以自定义的。
2)mpegts_write_header(AVFormatContext *s)
初始化 AVFormatContext参数,在正式封装开始加入PAT,PMT,SDT一些信息。代码中有基本的注释;
3)mpegts_write_pes(AVFormatContext *s, AVStream *st,
const uint8_t *payload, int payload_size,
int64_t pts, int64_t dts)
这个函数就是TS打包的主函数了,这个函数主要功能就是把一帧数据拆分成188字节(感觉效率低了点),并加入PTS,DTS同步信息,这个函数封装的对象是一帧视频或者音频数据, payload,payload_size分别是数据和大小。
上面提到的PAT,PMT表在每个188字节都会检查一次, retransmit_si_info 函数如下,可以看出条件( ++ts->pat_packet_count == ts->pat_packet_freq )成立,就会加入PAT,PMT信息,而 ts->pat_packet_freq这个值是根据码流大小计算出来。 PTS,DTS就是音视频同步时间戳,时间戳其实就是一次采样的颗粒(简单理解就是数据),以视频来举例,视频同步时钟90K hz(27M/300),如果帧率是25fps的话,一帧数据采样时间40ms,那么时间戳就是90K x 40ms = 3600(估算值)。
4)mpegts_write_packet(AVFormatContext *s, AVPacket *pkt)
这个函数功能比较简单,就是把一帧数据拆分成几个块来封装成pes,因为pes头信息的长度只有两个字节长度(当时可能面向标清),高清的I帧数据肯定一次包不完的。
ts打包的一些头介绍请看http://www.360doc.com/content/08/0403/09/8442_1161051.shtml;