接到在android平台下实现对tcp传送过来的h264图像数据实时显示的需求,从开始实现到最后实现完成,中间经历了各种的煎熬。为了以后再有类似的需求m们少走弯路,记录下这段过程。
实现思路:
1.编译ffmpeg ,生成ffmpeg的so文件。
2.在安卓中使用jni调用生成的so文件。
3.使用ffmpeg解码h264数据,解码完成后为yuv视频数据,android不支持yuv数据显示,需要把yuv数据转为RGB数据后再显示。
环境:
OS X 10.8.5
android-NDK r9
ffmpeg 0.8