既然要用到硬件肯定要牵涉到权限,在Mainifest.xml中加入camera的权限:
<uses-permission android:name="android.permission.CAMERA"/>
<uses-feature android:name="android.hardware.camera" />
<uses-feature android:name="android.hardware.camera.autofocus" />
调用camera最简单的办法是调用系统的功能,然后通过onActivityResult方法获得图像数据。首先创建activity_man.xml:
<?xml version="1.0" encoding="utf-8"?>
<LinearLayout xmlns:android="http://schemas.android.com/apk/res/android"
android:layout_width="match_parent"
android:layout_height="match_parent"
android:orientation="vertical" >
<TextView
android:id="@+id/TextView01"
android:layout_width="match_parent"
android:layout_height="wrap_content"
android:text="Camera Demo" />
<RelativeLayout
android:id="@+id/FrameLayout01"
android:layout_width="match_parent"
android:layout_height="match_parent"
android:layout_weight="1" />
<Button
android:id="@+id/Button01"
android:layout_width="wrap_content"
android:layout_height="wrap_content"
android:layout_gravity="center"
android:text="test" />
</LinearLayout>
系统camera的uri为:android.media.action.IMAGE_CAPTURE
private void init() {
iv = new ImageView(this);
((FrameLayout) findViewById(R.id.FrameLayout01)).addView(iv);
Button buttonClick = (Button) findViewById(R.id.Button01);
buttonClick.setOnClickListener(new OnClickListener() {
@Override
public void onClick(View arg0) {
startActivityForResult(new Intent(
"android.media.action.IMAGE_CAPTURE"), TAKE_PICTURE);
}
});
}
protected void onActivityResult(int requestCode, int resultCode, Intent data) {
if (requestCode == TAKE_PICTURE) {
if (resultCode == RESULT_OK) {
Bitmap b = (Bitmap) data.getExtras().get("data");
iv.setImageBitmap(b);
}
}
}
调用系统功能很简单,接下来看看camera类能干些什么。首先查看一下camera,camera主要是用到几个接口:
1、需要SurfaceHolder类来显示图像,并获取SurfaceHolder类传递给Camera,Camera以后通过该Holder对图像进行处理。所以程序中需要SurfaceView子类,并实现SurfaceHolder.Callback 接口:
public void surfaceChanged(SurfaceHolder holder, int format, int width,int height)
public void surfaceCreated(SurfaceHolder holder)
public void surfaceDestroyed(SurfaceHolder holder)
如:
public class Preview extends SurfaceView implementsSurfaceHolder.Callback
2、拍摄相片主要用到如下方法:
public final void takePicture(ShutterCallbackshutter, PictureCallback raw, PictureCallback jpeg)
方法中的参数是几个回调接口:
1)、ShutterCallback
void onShutter();
拍照时调用该接口,用于按下拍摄按钮后播放声音等操作。
2)、PictureCallback
void onPictureTaken(byte[] data, Camera camera);
拍照时调用该接口,data为拍摄照片数据,camera为Camera类自身。takePicture方法中有两个PictureCallback,看参数名好像一个是原始数据,一个是jpeg数据。
3、还有一个预览方式
PreviewCallback
void onPreviewFrame(byte[] data, Camera camera);
该接口可以获取摄像头每一帧的图像数据。
此外此外还有几个辅助方法:
startPreview()
stopPreview()
previewEnabled()
4、其它方法:
1)、自动对焦AutoFocusCallback
void onAutoFocus(boolean success, Camera camera);
摄像头自动对焦,success表示自动对焦是否成功。
2)、ErrorCallback
void onError(int error, Camera camera)
摄像头发生错误是调用该接口。CAMERA_ERROR_UNKNOWN表示发生了未知错误,这种错误一般很难查找。CAMERA_ERROR_SERVER_DIED表示媒体服务已经当掉,需要释放Camera重新启动。
3)、setParameters(Parameters params)
设置摄像头参数。
先来做一个最简单的测试:
用来表现图像的SurfaceView子类,Android的例子里面有一个,直接拿过来用用:
class CameraView extends SurfaceView implements SurfaceHolder.Callback {
SurfaceHolder mHolder;
Camera mCamera;
@SuppressWarnings("deprecation")
public CameraView(Context context) {
super(context);
mHolder = this.getHolder();
mHolder.addCallback(this);
mHolder.setType(SurfaceHolder.SURFACE_TYPE_PUSH_BUFFERS);
}
public void surfaceChanged(SurfaceHolder holder, int format, int width,
int height) {
Camera.Parameters parameters = mCamera.getParameters();
parameters.setPreviewSize(width, height);
mCamera.setParameters(parameters);
mCamera.startPreview();
}
public void surfaceCreated(SurfaceHolder holder) {
mCamera = Camera.open();
try {
mCamera.setPreviewDisplay(holder);
} catch (IOException exception) {
mCamera.release();
mCamera = null;
}
}
public void surfaceDestroyed(SurfaceHolder holder) {
mCamera.stopPreview();
mCamera.release();
mCamera = null;
}
public void draw(Canvas canvas) {
super.draw(canvas);
Log.d("===>", "draw");
}
}
内容比较简单,Camera的管理都跟CameraView的几个接口绑在一块。接下来把View加到Activity中去,同时用takePicture方法:
private void init02() {
cv = new CameraView(this);
RelativeLayout relay = (RelativeLayout) findViewById(R.id.FrameLayout01);
relay.addView(cv);
buttonClick = (Button) findViewById(R.id.Button01);
buttonClick.setOnClickListener(new OnClickListener() {
public void onClick(View arg0) {
cv.mCamera.takePicture(new ShutterCallback() {
public void onShutter() {
Log.d("===>", "onShutter");
}
}, new PictureCallback() {
// raw
public void onPictureTaken(byte[] data, Camera camera) {
Log.d("===>", "raw:"
+ (data == null ? "null" : data.length));
}
}, new PictureCallback() {
// postview
public void onPictureTaken(byte[] data, Camera camera) {
Log.d("===>", "postview:"
+ (data == null ? "null" : data.length));
}
}, new PictureCallback() {
// jpeg
public void onPictureTaken(byte[] data, Camera camera) {
Log.d("===>", "jpeg:"
+ (data == null ? "null" : data.length));
}
});
}
});
}
这样所有的代码就完成了,在模拟器上点击test按钮,在log中可以看到:
===>onShutter
===>raw:null
===>jpeg:85901
很奇怪的是CameraView中的===>draw没有输出,说明View不进行绘制,那么摄像图像是怎么出来的呢?感觉是通过SurfaceHolder获得View的Canvas对象,直接进行绘制,Holder中没有View的引用,当然不会再去调用View的draw方法了。
在通常情况下,OPhone程序中的View都是在同一个GUI线程中绘制的,该线程也是接收用户交互事件的线程(例如:按钮点击事件)。从另外的线程修改GUI元素是不可以的,如果要迅速的更新UI显示该如何办?显然在主线程中还需要处理其他事件,不适合做这件事情,所以OPhone提供了SurfaceView来满足这种需求。一个SurfaceView包装一个Surface对象(通过SurfaceHolder操作该对象)而不是Canvas对象,这就是关键所在,Surface可以在其他线程中绘制,这对于周期性更新和要求高帧率的场景来说是很有用的,特别是在游戏开发中。Surface中包含了当前UI的原生数据(raw data),在不同的软件和硬件条件下对这些数据的处理是不一样的,这就可以通过一些设置来加速图形的绘制,可以通过SurfaceHolder的setType函数来设置,目前接收如下的参数:
SURFACE_TYPE_NORMAL:用RAM缓存原生数据的普通Surface
SURFACE_TYPE_HARDWARE:适用于DMA(Direct memory access)引擎和硬件加速的Surface
SURFACE_TYPE_GPU:适用于GPU加速的Surface
SURFACE_TYPE_PUSH_BUFFERS:表明该Surface不包含原生数据,Surface用到的数据由其他对象提供,在Camera图像预览中就使用该类型的Surface,有Camera负责提供给预览Surface数据,这样图像预览会比较流畅。如果在这里设置了上面三种类型则可以发现不会出现预览图像,在和Camera底层的预览机制实现有关,如果对预览有特殊要求的可以现实PreviewCallback接口来自己处理。
直接将一个View叠加到Camera上就可以了,后面实在找不到其它办法,试一试看看:
在init002()中加入
TextView tv = new TextView(this);
tv.setText("test");
RelativeLayout.LayoutParams lp = new RelativeLayout.LayoutParams(
ViewGroup.LayoutParams.WRAP_CONTENT,
ViewGroup.LayoutParams.WRAP_CONTENT);
lp.addRule(RelativeLayout.CENTER_IN_PARENT);
relay.addView(tv, lp);
果然可以,再回来看看Camera。既然jpeg数据有输出,看看jpeg是什么内容。
new PictureCallback() {
// jpeg
public void onPictureTaken(byte[] data, Camera camera) {
Log.d("===>", "jpeg:"
+ (data == null ? "null" : data.length));
}
}
在jpeg的回调接口中添加内容:
Log.d("===>", "jpeg:" + (data == null ? "null" : data.length));
cv.setVisibility(View.INVISIBLE);
ImageView iv = new ImageView(MainActivity.this);
Bitmap bitmap = BitmapFactory.decodeByteArray(data, 0, data.length);
iv.setImageBitmap(bitmap);
relay.addView(iv);
其中的MainActivity是类名,另外需要把relay改成final变量:
final RelativeLayout relay =(RelativeLayout)findViewById(R.id.FrameLayout01);
看到那幅熟悉的图片了。raw数据没有输出,下次再说了。看看能不能设置一下参数就可以有输出了。从log中可以看到Parameters预设的参数:
picture-format=jpeg
picture-preview=yuv422sp
设置为其它的参数系统都报错,获取帧数据:
cv.mCamera.setPreviewCallback(new PreviewCallback() {
public void onPreviewFrame(byte[] data, Camera camera) {
Log.d("===>", "onPreviewFrame");
}
});
其中的data是yuv格式的,需要对其解码:
public static void decodeYUV420SP(byte[] rgbBuf, byte[] yuv420sp,
int width, int height) {
final int frameSize = width * height;
if (rgbBuf == null)
throw new NullPointerException("buffer 'rgbBuf' is null");
if (rgbBuf.length < frameSize * 3)
throw new IllegalArgumentException("buffer 'rgbBuf' size "
+ rgbBuf.length + " < minimum " + frameSize * 3);
if (yuv420sp == null)
throw new NullPointerException("buffer 'yuv420sp' is null");
if (yuv420sp.length < frameSize * 3 / 2)
throw new IllegalArgumentException("buffer 'yuv420sp' size "
+ yuv420sp.length + " < minimum " + frameSize * 3 / 2);
int i = 0, y = 0;
int uvp = 0, u = 0, v = 0;
int y1192 = 0, r = 0, g = 0, b = 0;
for (int j = 0, yp = 0; j < height; j++) {
uvp = frameSize + (j >> 1) * width;
u = 0;
v = 0;
for (i = 0; i < width; i++, yp++) {
y = (0xff & ((int) yuv420sp[yp])) - 16;
if (y < 0)
y = 0;
if ((i & 1) == 0) {
v = (0xff & yuv420sp[uvp++]) - 128;
u = (0xff & yuv420sp[uvp++]) - 128;
}
y1192 = 1192 * y;
r = (y1192 + 1634 * v);
g = (y1192 - 833 * v - 400 * u);
b = (y1192 + 2066 * u);
if (r < 0)
r = 0;
else if (r > 262143)
r = 262143;
if (g < 0)
g = 0;
else if (g > 262143)
g = 262143;
if (b < 0)
b = 0;
else if (b > 262143)
b = 262143;
rgbBuf[yp * 3] = (byte) (r >> 10);
rgbBuf[yp * 3 + 1] = (byte) (g >> 10);
rgbBuf[yp * 3 + 2] = (byte) (b >> 10);
}
}
}
摄像头这一块android虽然给了一个接口,但是实现还是各个厂家自己实现的,所以不同的机型处理方式还不一致,很难做到统一。