H264解码器源码(Android 1.6 版和QT都可以调用)

原创 2012年03月31日 09:58:22


H264解码器源码,移植ffmpeg中的H264解码部分到Android,深度删减优化,在模拟器(320x480)中验证通过。

程序的采用jni架构。界面部分,文件读取,视频显示都是用java做的,底层的视频解码用C来做满足速度的要求。

在这个版本中,从H264码流中分割出Nal是在java层做的,这样在java层直接调用解码时就知道是否有显示视频,缺点的就是耦合度/封装性差一点。

如果采用在底层做Nal分割的方法,可以封装得好看一些,但是每次送的数据有限制,如果送的数据太多,底层可能会一次解码出好几帧视频,但是通知到界面层只能显示一帧,造成丢帧的现象。 如果每次送的数据较少,就会有很多次底层调用没有进行实质解码,很小气的做法,比如有一压缩数据帧需要600字节,如果一次送100个字节给解码器,那么要送6次才会进行实质解码,因为每个数据帧有大有小,所以只能取极小值才不会导致丢帧。

不过所有的编码解码都是各种因素平衡折中的结果,具体用什么方法具体分析。

 

 

如果程序崩溃退出,优先考虑:

1)是否是baseline
2)byte [] NalBuf = new byte[40980]; 缓冲区是否溢出。

如果有B帧,那肯定不是baseline。

 

 

为便于支持不同分辨率的码流,修改了代码。现在只需要修改H264Android.java文件中第51,74,75行就可测试新分辨率。

有些大分辨率的码流可能会异常,优先修改H264Android.java文件中第161行把Nal缓冲区改大。

 

两版本都是用 android-ndk-1.6_r1-windows.zip 和 cygwin 1.7.5-1, gcc4 4.3.4-3 (用 cygcheck -c查看) 编译。

注意 /jni/H264Android.cpp文件添加了extern "C" 关键声明。

 

解码源码下载地址:http://files.cnblogs.com/mcodec/H264Android.7z  

C++版本下载地址:http://files.cnblogs.com/mcodec/H264Android_CPP.7z

 

测试码流(240x320)下载地址:http://files.cnblogs.com/mcodec/butterfly.h264.rar

测试码流(352x288)下载地址:http://files.cnblogs.com/mcodec/352x288.264.7z




把common.h改下就可以用gcc编译了!
下面是common.h改后的文件的修改的部分:
#ifndef COMMON_H
#define COMMON_H

#define WINCE
#define HAVE_AV_CONFIG_H
#define EMULATE_INTTYPES

#define inline __inline

#define ALT_BITSTREAM_READER

#define LIBMPEG2_BITSTREAM_READER_HACK //add BERO

#include <stdlib.h>
#include <stdio.h>
#include <string.h>
#include <ctype.h>

///*
typedef signed char  int8_t;
typedef signed short int16_t;
typedef signed int   int32_t;
typedef unsigned char  uint8_t;
typedef unsigned short uint16_t;
typedef unsigned int   uint32_t;


typedef signed long long   int64_t;
typedef unsigned long long uint64_t;

// */
下面是makefile文件:
main: cabac.o common.o dsputil.o golomb.o  h264.o h264utils.o mpegvideo.o main.o
	gcc $^ -o $@ 
main.o: main.c
cabac.o:  common.h cabac.h
common.o: avcodec.h common.h
dsputil.o:  common.h avcodec.h dsputil.h
golomb.o: common.h
h264.o:  common.h avcodec.h h264.h dsputil.h mpegvideo.h h264data.h \
 golomb.h cabac.h
h264utils.o:  avcodec.h common.h dsputil.h mpegvideo.h h264.h \
 	h264data.h golomb.h cabac.h

mpegvideo.o:  avcodec.h common.h dsputil.h mpegvideo.h

clean:
	-rm main *.o


在QT中使用时,修改while中语句就可以把yuv格式转成QT中QImage类,用于显示了。

        while(!feof(inpf))
        {
                nalLen = getNextNal(inpf, Buf);

                consumed_bytes= decode_frame(c, picture, &got_picture, Buf, nalLen);
                printf("ddd6\n");
#if 1
                unsigned char a1[1000000];//保存RGB16
                memset(a1, 0, sizeof(a1));
                char *pppp=(char *)(picture->data);
                DisplayYUV_16((unsigned int *)a1, picture->data[0], picture->data[1], picture->data[2] //把AVFrame格式的图片转成RGB16 格式
                            ,c->width, c->height,picture->linesize[0],picture->linesize[2], iWidth);        
                image= QImage(a1, iWidth, iHeight, QImage::Format_RGB16);   //把RGB16格式图片复制到QImage中!
                widget->update(); //调用刷新   //博客前面"qt界面刷新屏幕"有讲
                printf("update1 0k\n");
                usleep(100000);
               //continue;
 #endif


                #if 0
                        //*
                        for(i=0; i<c->height; i++)
                        fwrite(picture->data[0] + i * picture->linesize[0], 1, c->width, outf);
                        for(i=0; i<c->height/2; i++)
                        fwrite(picture->data[1] + i * picture->linesize[1], 1, c->width/2, outf);
                        for(i=0; i<c->height/2; i++)
                        fwrite(picture->data[2] + i * picture->linesize[2], 1, c->width/2, outf);
                        //return 0;
                        // */
                        #endif
                        /*
                        if(iBytesPixel==2)
                        {
                                unsigned int *rgb = (unsigned int*)(iDDraw->BeginDraw());
                                DisplayYUV_16(rgb, picture->data[0], picture->data[1], picture->data[2], c->width, c->height, picture->linesize[0], picture->linesize[1], iWidth);
                                iDDraw->EndDraw();
                        }
                        else if(iBytesPixel==3)
                        {
                                unsigned char *rgb = (unsigned char*)(iDDraw->BeginDraw());
                                DisplayYUV_24(rgb, picture->data[0], picture->data[1], picture->data[2], c->width, c->height, picture->linesize[0], picture->linesize[1], iWidth);
                                iDDraw->EndDraw();
                        }
                        else if(iBytesPixel==4)
                        {
                                unsigned int *rgb = (unsigned int*)(iDDraw->BeginDraw());
                                DisplayYUV_32(rgb, picture->data[0], picture->data[1], picture->data[2], c->width, c->height, picture->linesize[0], picture->linesize[1], iWidth);
                                iDDraw->EndDraw();
                        }
                        // */
                //}
        }



版权声明:本文为博主原创文章,未经博主允许不得转载。

相关文章推荐

ByteBuffer用法小结

在NIO中,数据的读写操作始终是与缓冲区相关联的.读取时信道(SocketChannel)将数据读入缓冲区,写入时首先要将发送的数据按顺序填入缓冲区.缓冲区是定长的,基本上它只是一个列表,它的所有元素...

ByteBuffer Android

ByteBuffer是NIO里用得最多的Buffer,它包含两个实现方式:HeapByteBuffer是基于Java堆的实现,而DirectByteBuffer则使用了unsafe的API进行了堆外的...

Android中直播视频技术探究之---基础核心类ByteBuffer解析

前一篇文章我们介绍了Android中直播视频技术的基础大纲知识,这里就开始一一讲解各个知识点,首先主要来看一下视频直播中的一个重要的基础核心类:ByteBuffer,这个类看上去都知道了,是字节缓冲区...

H.264解码过程剖析-4

x264开源工程实现H.264的视频编码,但没有提供对应的解码器。ffmpeg开源多媒体编解码集合汇集了市面上几乎所有媒体格式的编解码的源代码。其中的H264.c就是一个能正常解码x264编码码流的独...

YV12,I420,YUV420P的区别与格式转换

http://blog.csdn.net/ainyko/article/details/43405503 YV12和I420的区别 一般来说,直接采集到的视频数据是RGB24的格式,RGB...

Live555接收h264使用ffmpeg解码为YUV420

本文介绍了一种常用成熟的多媒体解码方案。使用live555作为流媒体数据源,建立rtsp会话请求h264数据流。后端使用ffmpeg解码h264流并保存为yuv420格式。该方案比较成熟,可行性高,但...

用JAVA获取视频文件中的帧图片并等比缩放

最近项目中有一个需要用JAVA

收集了很多音乐播放器类的Android项目源码,非常不错的开源项目【转】

from:http://blog.csdn.net/java173842219/article/details/54096598 JieCaoVideoPlayer立志成为Android平台使用...

用ffmpeg把H264数据流解码成YUV420P

在网上找了很久这方面的内容,发现网上的代码都太旧了,所使用的函数旧到连最新版本的ffmpeg都已经不包含了,所以对于我这个初学者来说太坑拉。不过经过多次查找ffmpeg的头文件和结合网上的内容,终于成...
内容举报
返回顶部
收藏助手
不良信息举报
您举报文章:深度学习:神经网络中的前向传播和反向传播算法推导
举报原因:
原因补充:

(最多只允许输入30个字)