android手机上显示ip camera视频,JPEG格式

最经的一个项目需要在app中显示ip camera的视频,当在手机的浏览器中直接输入ip camera的地址是可以浏览到视频的,所以第一感觉就是用WebKit来做,如果可以的话将会变得非常简单,不需要关心视频流等等很多的细节,但是非常失望,当使用WebKit后无法正常显示视频,也不知是什么原因,希望知道的高手可以解答一下,下面就说说我自己的解决办法。

我的办法是采用最原始的方法:就是先获取到ip camera的视频流,然后分包解析为一张一张的图片,再将其显示在界面上。

我所使用的IP CAMER是JPEG格式的,至于H.264可能就不行了。

先用一个抓包软件抓取打开ip camera视频的命令,我所使用的ip camera是HTTP流的,所以是标准的HTTP协议,一般如下:

GET /videostream.cgi?rate=0 HTTP/1.1 

Host: 10.24.120.177:8080 

User-Agent: Mozilla/5.0 (Windows NT 5.1; rv:12.0) Gecko/20100101 Firefox/12.0 

Accept: image/png,image/*;q=0.8,*/*;q=0.5 

Accept-Language: zh-cn,zh;q=0.8,en-us;q=0.5,en;q=0.3 

Accept-Encoding: gzip, deflate 

Connection: keep-alive 

Referer: http://10.24.120.177:8080/live.htm 

Authorization: Basic YWRtaW46MTIzNDU2 

另外还有一个是RTSP流的,这种格式的没有仔细研究过,等以后有时间了一定会补上这方面的知识。

好了,经过以上的步骤就可以推算出打开IPcamera的http请求地址了:10.24.120.177:8080/videostream.cgi


下面就是具体的代码实现了

先用http请求连接,一旦连接上之后就会收到连绵不断的视频流,然后将其分帧显示,核心代码cameraStream()函数如下

//播放camera视频,禁止在UI线程中直接调用
	private void cameraStream() throws IOException {
		URL aURL;
		ByteArrayOutputStream outStream = new ByteArrayOutputStream();
//		try {
			aURL = new URL("http://192.168.0.102/videostream.cgi?user=admin&pwd=&resolution=32&rate=1");
			URLConnection conn = aURL.openConnection();
			conn.connect();
			InputStream input = conn.getInputStream();
			System.out.println("input = " + input);
			if(input != null) mStopStream = false;
			int readLength = -1;
			String strDate;   //将读取的数据转化为string类型,以便判断包头
			while(!mStopStream) {
				byte[] buffer = new byte[1024];
				readLength = input.read(buffer,0,1024);//readLength 本次读取数据的长度
				if(readLength > 0) {
					strDate = new String(buffer, readLength);
					//index标记"Content-Length: "的起始位置
					//index1标记"\r\n"的位置,注意是"Content-Length: "之后的第一个位置
					int index = strDate.indexOf(flag);
					int index1 = strDate.indexOf(flag1,index);
					int streamLength = 0;
					if(index1 != -1) {
						//计算本次streamLength的长度
						streamLength = Integer.parseInt(strDate.substring(index+flag.length(), index1));
					}
					if(streamLength > 0) {
						if((index1+4) < readLength) {
							outStream.write(buffer, index1+4, readLength-index1-4);
							streamLength = streamLength - readLength+index1+4;
						}
						//将剩下读取的视频流存储到buffer1
						byte[] buffer1 = new byte[streamLength];
						int length = 0;
						while(length < streamLength) {
							length += input.read(buffer1,length,streamLength-length);
						}
						outStream.write(buffer1,0,streamLength);  // 将剩余的stream写入outStream
						byte[] data = outStream.toByteArray();
						bitmap = BitmapFactory.decodeByteArray(data, 0, data.length);
//						System.out.println("bitmap = " + bitmap);
						if(bitmap != null) {
							mHandler.sendEmptyMessage(MSG_REFRESH);   //报告到UI界面,更新图像
						}
						outStream.reset();
					}
				}
			}
//		} catch (IOException e) {
//			// TODO Auto-generated catch block
//			e.printStackTrace();
//		} 
//		try {
		outStream.close();
//		} catch (IOException e) {
//			// TODO Auto-generated catch block
//			e.printStackTrace();
//		}
	}  // cameraStream()

注意,视频流中,每帧之间一般都是通过Content-Type:***    ,Content-Lenght:***来隔开的,具体的可以通过抓包软件来看,注意\r\n。

Content-Type:  image/jpeg

Content-Length: 12032


我在代码中是通过解析出Content-Length来分辨每一帧的数据,当获取到完整的一帧之后马上将其解析为图片,接着是下一帧。。。如此不但循环。

当然了,有的时候,当一帧的数据有错误的时候可能会解析失败,可以在最后面加上如下两句:

outStream.write((byte)0xFF);

outStream.write((byte)0xD9);

然后再调用解析函数,这样解析的图片会有内容的丢失,但是起码不会解析失败。

是的,你猜对了,FFD9代表是的一帧的结束,而FFD8是开始

当然了,以上所说的都是JPEG格式的。

测试工程的下载连接为:http://download.csdn.net/detail/songsong_2012/5234452

运行的时候请将请求地址改为自己的camera的地址

我所测试的Android平台为2.3,还是很流畅的

  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值