目前在研究七牛的直播服务,主要分为音频及视频两个部分,必然会涉及到Camera部分,对于显示部分又会涉及到SurfaceFlinger部分,因此需要一步步的进行学习并确认设计是否合理.
文章主要针对Camera作个简要的介绍,了解需要开发的各个环节。
摄像头系统提供的功能如下几个方面:
a、预览功能preview
b、视频儿取功能 recording
c、拍照功能 takePicture
d、参数设置
android中基本的架构都是C/S层架构,客户端提供调用接口,实现工作由服务端完成.
那么Camera也同样满足此条件:Client进程虽然不曾拥有任何实质的Camera数据,但是service端为它提供了丰富的接口,它可以轻松的获得Camera数据的地址,然后处理这些数据。两者通过Binder进行通讯。
通过阅读其interface函数知道,ICamera中提供的都是控制类接口,而ICameraClient定义的都是回调函数 接口,即真正的数据流传输都是通过回调函数实现的。ok,通过以上应该知道了基本的摄像头基本层次结构
2重点介绍一下CamerService , 这是一个承上启下的服务进程
代码路径: frameworks\base\camera\libcameraservice
这部分内容编译生成libcameraservice库,这里有个fake的摄像头代码,由USE_CAMERA_STUB宏进行设定。
3针对其数据流程进行分析。Camera一般用于图像浏览、拍照和视频录制。这里先对图像浏览和拍照的数据流进行分析,后面再对视频电话部分进行分析。
针对HAL层对摄像头数据处理补充一下
Linux中使用V4L2最为摄像头驱动,V4L2在用户空间通过各种ioctl调用进行控制,并且可以使用mmap进行内存映射
常用IOCTL函数介绍:
ioctl函数命令参数如下:
.vidioc_querycap = vidioc_querycap, //查询驱动功能
.vidioc_enum_fmt_vid_cap = vidioc_enum_fmt_vid_cap, //获取当前驱动支持的视频格式
.vidioc_g_fmt_vid_cap = vidioc_g_fmt_vid_cap, //读取当前驱动的频捕获格式
.vidioc_s_fmt_vid_cap = vidioc_s_fmt_vid_cap, //设置当前驱动的频捕获格式
.vidioc_try_fmt_vid_cap = vidioc_try_fmt_vid_cap, //验证当前驱动的显示格式
.vidioc_reqbufs = vidioc_reqbufs, //分配内存
.vidioc_querybuf = vidioc_querybuf, //把VIDIOC_REQBUFS中分配的数据缓存转换成物理地址
.vidioc_qbuf = vidioc_qbuf, //把数据从缓存中读取出来
.vidioc_dqbuf = vidioc_dqbuf, //把数据放回缓存队列
.vidioc_streamon = vidioc_streamon, //开始视频显示函数
.vidioc_streamoff = vidioc_streamoff, //结束视频显示函数
.vidioc_cropcap = vidioc_cropcap, //查询驱动的修剪能力
.vidioc_g_crop = vidioc_g_crop, //读取视频信号的矩形边框
.vidioc_s_crop = vidioc_s_crop, //设置视频信号的矩形边框
.vidioc_querystd = vidioc_querystd, //检查当前视频设备支持的标准,例如PAL或NTSC。
初始化的时候进行camera基础参数的设置,然后调用mmap系统调用将camera驱动层的数据队列映射到用户空间
主要有两个线程:
pictureThread 拍照线程
当用户使用拍照的功能的时候,拍照线程被调用(非循环),检测队列中的帧数据,将帧数据从队列中取出,
拍照的数据一定需要传到JAVA层,所有可以将数据转换成JPEG格式再上传,也可以转换成RGB的数据上传给java层
previewThread 预览线程
当预览方法被调用的时候启动预览线程,循环的检测队列中是否有帧数据,如果帧数据存在,读取帧数据,由于读取的数据为YUV格式的数据,所有要将YUV数据转换成RGB的送给显示框架显示,也可以将转换过的数据送给视频编码模块,编码成功后储存变成录像的功能
所有上传的数据处理都要经过dataCallback,除非实现了overlay