Android用MediaRecorder实现MPEG4视频监控

都是摸着石头过河,花了整整一个星期,终于把技术难点给突破了,貌似网上对这个讨论的较少。

主要需要实现的功能是在android手机上实时采集视频,并在远程比如PC机上实时显示出来,也就是以android手机作为监控摄像头。

一开始查到的是smartcam的一个开源项目,看了下源代码,发现其实现原理是利用android 的camera图像的预采集,通过实现PreviewCallback类的回调函数onPreviewFrame,获得camera采集的原始图像数据之后,压成jpeg格式传到pc端。pc端对接收到的jpeg图像序列进行实时解压和显示,就达到了预想的效果。

虽然这种方式稍微显得比较笨拙,这个方式还可以接受。但是不可接受的是jpeg只是帧内压缩,320x280的图片序列,FPS大概是10上下,网络流量就到达了100kb/s以上。这个几乎是无法实际应用的。

于是必须直接传视频流,MPEG4或者H.264格式。貌似我的开发机上(HTC G8)只支持到MPEG4,所以还是选取MPEG4。但是如何实时采集视频流是一个大问题,毕竟在video方面,android并没有提供一个类似于OnPreviewFrame的回调函数。

想到用opencore或者更为新一点的stagefright,大概看看了其sdk的框架后,马上泄气了,这个太庞大了。在http://blog.csdn.net/zblue78/archive/2010/12/18/6083374.aspx的帖子中提到一个很好的解决方案,就是利用MediaRecorder:MediaRecorder的输出路径(其实叫file descriptor)除了是本地文件路径之外,还可以绑定socket端口。也就是说,通过一个socket端口,就可以实时获得MediaRecorder的视频流数据。
(其实上面博客的内容可以在开源项目sipdroid 的 videocamera文件中找到,但是非常感谢博客主人zhangzhenj对网友提问的回答,赞一个。)

通过socket接收的视频流与直接写在本地文件的视频流数据有点不一样,因为是通过socket传输,就无法对视频文件的回写,通常MediaRecorder结束录像的时候都会对视频文件进行回写处理,这样才可以被播放器播放。所以通过socket接受到的数据,保存下来是无法播放的。16进制方式查看了一下其输出文件,发现其前32byte都是00,紧接着就是mdat。问题就出现在这了:缺少了一个ftyp box 的描述(28 bytes)以及mdat的长度描述(4 bytes).网上已经有人顺利解决这样的问题,在数据中查找moov的起始位置,发现前面会有ftyp的描述,长度刚刚好28bytes。你可以copy这28bytes到文件开始的28byte中。这ftyp的描述是从moov的起始位置 的前32byte开始一直到前4byte(后面4byte是moov的长度描述)。然后mdat的长度就是 moov的起始位置 减去 0x20,道理就不解释了。然后把这个值写到mdat的前面4byte。刚刚好填满32byte,之后就能顺利播放了。

保存好的文件能播放之后,最后一个问题,如何在实时显示这个视频流呢?查看一下mpeg4的文件格式,很快就会知道答案,答案就在mdat中。mdat之后紧跟的就是视频媒体数据,每一帧以 00 00 01 b6 为开始标志,貌似没有结束标志,分帧的话估计要用这个。开始标志后紧接着的两bit就是I、P、B帧的标志了,分别对应值为00,01,10,记住是两bit不是两byte

好了,把mdat的一帧数据取出来,可以用ffmpeg解码,然后显示,这样的路子是可行的,不过细节还是有点麻烦,关键是ffmpeg在解码mpeg4的时候一定要先指定width和height,否则解码失败。

大概思路就是这样了,完整的代码还没出来。以后再说。
发布了1 篇原创文章 · 获赞 0 · 访问量 153
展开阅读全文

Android Camera中的onPreviewFrame里的byte[] data的预处理

08-26

是这样的,我正在做Android视频这块,因为我要实时采集视频,所以会调用到Android的Camera的onPreviewFrame(byte[] data, Camera camera),此时我手机的分辨率大概是1216x912,我会将data先转成yuv420p格式的,因为录出来的是yuv420sp,转完之后,先贴下代码: @Override public void onPreviewFrame(byte[] data, Camera camera) { int width = camera.getParameters().getPreviewSize().width; int height = camera.getParameters().getPreviewSize().height; int length = width * height * 3 / 2; byte[] dataYUV420P = new byte[width * height * 3 / 2]; // 每一帧的大小 int framesize = width * height; int i = 0, j = 0; // 这块没问题--Y for (i = 0; i < framesize; i++) { dataYUV420P[i] = data[i]; } // U i = 0; for (j = 0; j < framesize/2; j+=2) { dataYUV420P[i + framesize*5/4] = data[j+framesize]; i++; } i = 0; for (j = 1; j < framesize/2;j+=2) { dataYUV420P[i+framesize] = data[j+framesize]; i++; } this.mMediaRecorder.onPreviewFrame1(dataYUV420P, camera); } 之后,this.mMediaRecorder.onPreviewFrame1函数会将dataYUV420P数据通过IO函数写入一个文件中,比如1.video 问题是,现在我调用ffmpeg的命令:ffmpeg -s 480x480,输出的视频是乱码;可是我如果换成ffmpeg -s 1216x912,视频可以输出,不过视频貌似被截取了,时间有点短。我猜测原因是我用Camera录制时,由于手机的previewSize的大小是1216*912,所以写入1.video的数据多了,而我显示只用到了480x480,所以我想问下,我应该怎么进行转换将1215x912,弄成480x480. 网上有人说用ffmpeg的lwscale进行转换,可是我不知道命令,有哪位大神可以提供一下命令吗,我测试一下。 问答

没有更多推荐了,返回首页

©️2019 CSDN 皮肤主题: 大白 设计师: CSDN官方博客

分享到微信朋友圈

×

扫一扫,手机浏览