FFMPEG代码量很大,所以如果只是看代码必然容易从入门到放弃,为了更好的了解这座宝库,我选择了gdb调试ffmpeg_g的方式。从实际的效果看,确实能够比较清晰的顺利整个FFMPEG的脉络。这次我想了解的是ffmpeg到底是如何将h264码流解码成yuv的,选用的测试命令如下:
./ffmpeg_g -i test.h264 -vcodec rawvideo -an out.yuv
外部通过avcodec_send_packet调用,将需要解码的pkt包提交给后台的解码线程,后台解码线程再调用h264解码回调函数进行解码。
解码线程的创建
使用gdb工具,在解码回调h264_decode_frame设置断点,可以得到如下调用堆栈。
可以确定,这是一个专门用于解码的线程,从代码中索引线程工作回调函数frame_worker_thread,只有创建它的时候有调用。
在此行再设置断点,我们可以知道到底是谁创建了它,以及什么时候创建的。
从堆栈看就是在调用avcodec_open2打开解码器的时候,ffmpeg就已经为我们构建了解码模型!
推包
这一部分讲一讲ffmpeg是如何将包推送给后台线程的。我们注意观察解码线程,看看它到底是如何接收外界包的
很明显,外界是将数据装载到了PerThreadContext::avpkt这个变量中,对于PerThreadContext,我们先按下不表,只需了解它就是一个线程结构体对象罢了,装载了各种线程所需的数据,包括外界给它的包。换言之,只需按图索骥跟踪这个变量,就可以知道是谁,通过什么样的方式给它传数据的。经过一番折腾,我确实找到了一个地方
为了确认,在此处设置断点,ffmpeg确实在不断的调用此函数推包。而最外层API函数正是我们常用的avcodec_send_packet。