最近有一个需求是对mp4的视频文件进行解码,之后对图片做处理,做完处理之后再编码成mp4的文件。调查了一下,发现Android API 21之后就支持MediaCodec了,所以先做了一个测试就是先把mp4解码,之后再编码成新的mp4。调试过程中因为Surface的问题,导致查了很久。
具体实现参考了http://www.bigflake.com/mediacodec/里面所说的例子。
一开始选择的是都用buffer来处理,但是由于我们需要把nv21的数据转成rgba,再做处理,处理完再转成nv21花费的时间太长了,所以后来选择encoder选择使用Surface,这样可以省掉rgba转nv21的时间。
decoder和encoder都选择使用Surface的时候,我没有注意到例子里面OutputSurface调用的是无任何参数的构造函数,而是调用了带宽高的构造函数,导致Context一直使用了decoder自定义的,所以encoder那边swapBuffers一直失败。如果需要读取出解码之后的数据,那么需要给decoder使用自带的EGL context。
测试源码下载:https://github.com/tinafhx/testcode/tree/master/MediaCodecDecoderEncoder