Android:Camera2开发详解(下):实现人脸检测功能并实时显示人脸框

 


前言

  • 本篇文章是在上篇文章的基础之上,在预览的时使用Camera2自带的人脸检测功能实时检测人脸位置,并通过一个自定义view显示在预览画面上

实现思路

  1. 布局中使用 AutoFitTextureView 代替 TextureView。AutoFitTextureView 继承自 TextureView,能够根据传入的宽高值调整自身大小。目的是使预览画面不变形,否则在人脸坐标转换的时候会出现比较大的误差,这个后文中会提到

  2. 在创建预览会话的时候,开启人脸检测

  3. 在预览会话的状态回调中可以得到检测到的人脸信息

  4. 将检测到的人脸坐标进行相应的转换,并传递给FaceView

  5. 自定义一个FaceView,接收人脸位置并实时绘制出来

具体实现步骤

注: 由于本文是在上篇文章基础之上,故省略了很多相同的代码,完整代码在文末给出

一、定义一个AutoFitTextureView,并在布局中使用

 


/**
 * A {@link TextureView} that can be adjusted to a specified aspect ratio.
 */
public class AutoFitTextureView extends TextureView {

    private int mRatioWidth = 0;
    private int mRatioHeight = 0;

    public AutoFitTextureView(Context context) {
        this(context, null);
    }

    public AutoFitTextureView(Context context, AttributeSet attrs) {
        this(context, attrs, 0);
    }

    public AutoFitTextureView(Context context, AttributeSet attrs, int defStyle) {
        super(context, attrs, defStyle);
    }

    /**
     * Sets the aspect ratio for this view. The size of the view will be measured based on the ratio
     * calculated from the parameters. Note that the actual sizes of parameters don't matter, that
     * is, calling setAspectRatio(2, 3) and setAspectRatio(4, 6) make the same result.
     *
     * @param width  Relative horizontal size
     * @param height Relative vertical size
     */
    public void setAspectRatio(int width, int height) {
        if (width < 0 || height < 0) {
            throw new IllegalArgumentException("Size cannot be negative.");
        }
        mRatioWidth = width;
        mRatioHeight = height;
        requestLayout();
    }

    @Override
    protected void onMeasure(int widthMeasureSpec, int heightMeasureSpec) {
        super.onMeasure(widthMeasureSpec, heightMeasureSpec);
        int width = MeasureSpec.getSize(widthMeasureSpec);
        int height = MeasureSpec.getSize(heightMeasureSpec);
        if (0 == mRatioWidth || 0 == mRatioHeight) {
            setMeasuredDimension(width, height);
        } else {
            if (width < height * mRatioWidth / mRatioHeight) {
                setMeasuredDimension(width, width * mRatioHeight / mRatioWidth);
            } else {
                setMeasuredDimension(height * mRatioWidth / mRatioHeight, height);
            }
        }
    }
}

布局中使用

 

    <com.cs.camerademo.view.AutoFitTextureView
        android:id="@+id/textureView"
        android:layout_width="match_parent"
        android:layout_height="wrap_content" />

    <com.cs.camerademo.view.FaceView
        android:id="@+id/faceView"
        android:layout_width="match_parent"
        android:layout_height="match_parent" />

AutoFitTextureView 能够根据设置的宽高调整自身大小,防止画面出现拉伸的情况。如果画面出现拉伸的话,会导致人脸坐标在转换的时候出现较大的误差,不能精确的绘制出人脸位置

二、在上篇文章中Camera2Helper的基础上添加人脸检测相关的代码

 

class Camera2HelperFace(val mActivity: Activity, private val mTextureView: AutoFitTextureView) {
    companion object {
        const val PREVIEW_WIDTH = 1080          //预览的宽度
        const val PREVIEW_HEIGHT = 1440         //预览的高度
        const val SAVE_WIDTH = 720              //保存图片的宽度
        const val SAVE_HEIGHT = 1280            //保存图片的高度
    }

    private var mFaceDetectMode = CaptureResult.STATISTICS_FACE_DETECT_MODE_OFF //人脸检测模式
    private var openFaceDetect = true                                           //是否开启人脸检测
    private var mFaceDetectMatrix = Matrix()                                    //人脸检测坐标转换矩阵
    private var mFacesRect = ArrayList<RectF>()                                 //保存人脸坐标信息
    private var mFaceDetectListener: FaceDetectListener? = null                 //人脸检测回调

     ... ...  

}
  1. 为了跟上一篇文章区别,这里将类名改为了Camera2HelperFace,并将构造方法里的第二个参数改为AutoFitTextureView

  2. 我们定义了一个 mFaceDetectMatrix ,它是一个 Matrix 对象,用于对人脸坐标进行转换

注:相机检测到的人脸坐标与我们看到的屏幕坐标并不是同一个坐标系,所以必须通过转换后才能使用

  1. 注意!这里我将预览的宽高设为了 1080 * 1440 ,为什么要这样设置,上篇文章中不是设置的 720 * 1280 吗? 这个问题下面会给出答案

三、 在初始化的方法中,根据预览尺寸重新调整TextureView的大小

 

    /**
     * 初始化
     */
    private fun initCameraInfo() {

        ... ...

        //根据预览的尺寸大小调整TextureView的大小,保证画面不被拉伸
        val orientation = mActivity.resources.configuration.orientation
        if (orientation == Configuration.ORIENTATION_LANDSCAPE)
            mTextureView.setAspectRatio(mPreviewSize.width, mPreviewSize.height)
        else
            mTextureView.setAspectRatio(mPreviewSize.height, mPreviewSize.width)

        if (openFaceDetect)
            initFaceDetect()   //初始化人脸检测相关参数

         ... ...

        openCamera()
    }
  1. 这里根据预览尺寸和屏幕方向对mTextureView重新设置了宽高值,保证画面不被拉伸

  2. 如果开启人脸检测的话,初始化人脸检测相关参数

四、初始化人脸检测相关信息

 

   /**
     * 初始化人脸检测相关信息
     */
    private fun initFaceDetect() {

        val faceDetectCount = mCameraCharacteristics.get(CameraCharacteristics.STATISTICS_INFO_MAX_FACE_COUNT)    //同时检测到人脸的数量
        val faceDetectModes = mCameraCharacteristics.get(CameraCharacteristics.STATISTICS_INFO_AVAILABLE_FACE_DETECT_MODES)  //人脸检测的模式

        mFaceDetectMode = when {
            faceDetectModes.contains(CaptureRequest.STATISTICS_FACE_DETECT_MODE_FULL) -> CaptureRequest.STATISTICS_FACE_DETECT_MODE_FULL
            faceDetectModes.contains(CaptureRequest.STATISTICS_FACE_DETECT_MODE_SIMPLE) -> CaptureRequest.STATISTICS_FACE_DETECT_MODE_FULL
            else -> CaptureRequest.STATISTICS_FACE_DETECT_MODE_OFF
        }

        if (mFaceDetectMode == CaptureRequest.STATISTICS_FACE_DETECT_MODE_OFF) {
            mActivity.toast("相机硬件不支持人脸检测")
            return
        }

        val activeArraySizeRect = mCameraCharacteristics.get(CameraCharacteristics.SENSOR_INFO_ACTIVE_ARRAY_SIZE) //获取成像区域
        val scaledWidth = mPreviewSize.width / activeArraySizeRect.width().toFloat()
        val scaledHeight = mPreviewSize.height / activeArraySizeRect.height().toFloat()
        val mirror = mCameraFacing == CameraCharacteristics.LENS_FACING_FRONT

        mFaceDetectMatrix.setRotate(mCameraSensorOrientation.toFloat())
        mFaceDetectMatrix.postScale(if (mirror) -scaledWidth else scaledWidth, scaledHeight)
        if (exchangeWidthAndHeight(mDisplayRotation, mCameraSensorOrientation))
            mFaceDetectMatrix.postTranslate(mPreviewSize.height.toFloat(), mPreviewSize.width.toFloat())


        log("成像区域  ${activeArraySizeRect.width()}  ${activeArraySizeRect.height()} 比例: ${activeArraySizeRect.width().toFloat() / activeArraySizeRect.height()}")
        log("预览区域  ${mPreviewSize.width}  ${mPreviewSize.height} 比例 ${mPreviewSize.width.toFloat() / mPreviewSize.height}")

        for (mode in faceDetectModes) {
            log("支持的人脸检测模式 $mode")
        }
        log("同时检测到人脸的数量 $faceDetectCount")
    }
  1. 首先,我们获取到相机硬件所支持的人脸检测模式和同时最大检测到的人脸数

相机支持的人脸检测模式分为3种:

  • STATISTICS_FACE_DETECT_MODE_FULL :
    完全支持。返回人脸的矩形位置、可信度、特征点(嘴巴、眼睛等的位置)、和 人脸ID
  • STATISTICS_FACE_DETECT_MODE_SIMPLE:
    支持简单的人脸检测。返回的人脸的矩形位置和可信度。
  • STATISTICS_FACE_DETECT_MODE_OFF:
    不支持人脸检测

注 : 我的手机支持的人脸检测模式是STATISTICS_FACE_DETECT_MODE_SIMPLE,但是在实践过程中发现,我得到的人脸可信度值全部都是1,而正常范围应该是 0~100。
实践结果与源码中描述的STATISTICS_FACE_DETECT_MODE_SIMPLE模式下能返回可信度值不一致,对此我也存在疑问,如果有小伙伴清楚这个问题的话可以留言讨论~

  1. 通过mCameraCharacteristics.get(CameraCharacteristics.SENSOR_INFO_ACTIVE_ARRAY_SIZE) 获取到相机的成像区域。这句就比较关键了,什么是成像区域呢?源码中是这样描述的:

 

This is the rectangle representing the size of the active region of the sensor
//这是表示传感器活动区域大小的矩形

也就是说,这块矩形区域是相机传感器不捕捉图像数据时使用的范围。检测人脸所得到的坐标也正是基于此矩形的。
当我们拿到了这块矩形后,又知道预览时的矩形(即AutoFitTextureView的大小),这样我们就能找出这两块矩形直接的转换关系(即 mFaceDetectMatrix),从而就能够将传感器中的人脸坐标转换成预览页面中的坐标

这里解释一下为什么要把预览尺寸设置为 1080 * 1440
首先,我们要知道相机的成像区域与我们上显示的预览区域是相对独立的。而我们通过系统给的 api 得到的人脸位置信息就是基于这个成像区域的,我们需要通过这两个区域之前的转换关系把人脸位置信息进行转换后才能正确地绘制在预览区域上
通过log可以看到我的手机后置摄像头成像区域是 4608 * 3456,宽高比是 1.3333334。这时,如果我们将预览区域设置为 720 * 1080 的话,宽高比为 1.7777778。因为这两者的宽高比不一致,这会导致人脸坐标在转换后显示的时候与实际预览到的人脸不重合(会有压缩)。
所以我们将预览宽高设置为 1080 * 1440 ,与相机成像区域的宽高比一致,这样我们得到的人脸矩形的比例与预览效果中的实际人脸是一致的

成像区域与预览区域

  1. 通过对相机成像区域和预览区域的大小以及不同的摄像头,对转换关系(即 mFaceDetectMatrix )进行赋值

五、创建预览会话时设置人脸检测功能

 

    /**
     * 创建预览会话
     */
    private fun createCaptureSession(cameraDevice: CameraDevice) {

        val captureRequestBuilder = cameraDevice.createCaptureRequest(CameraDevice.TEMPLATE_PREVIEW)

        ... ...

         //设置人脸检测
        if (openFaceDetect && mFaceDetectMode != CaptureRequest.STATISTICS_FACE_DETECT_MODE_OFF)
            captureRequestBuilder.set(CaptureRequest.STATISTICS_FACE_DETECT_MODE, CameraCharacteristics.STATISTICS_FACE_DETECT_MODE_SIMPLE)

        // 为相机预览,创建一个CameraCaptureSession对象
        cameraDevice.createCaptureSession(arrayListOf(surface, mImageReader?.surface), object : CameraCaptureSession.StateCallback() {
          ... ...
        }, mCameraHandler)
    }

六、在预览会话的回调函数中对检测到的人脸进行处理,并将结果回调给Activity

 

 private val mCaptureCallBack = object : CameraCaptureSession.CaptureCallback() {

        override fun onCaptureCompleted(session: CameraCaptureSession, request: CaptureRequest?, result: TotalCaptureResult) {
            super.onCaptureCompleted(session, request, result)
            if (openFaceDetect && mFaceDetectMode != CaptureRequest.STATISTICS_FACE_DETECT_MODE_OFF)
                handleFaces(result)
        }
         ... ... 
    }

    /**
     * 处理人脸信息
     */
    private fun handleFaces(result: TotalCaptureResult) {
        val faces = result.get(CaptureResult.STATISTICS_FACES)
        mFacesRect.clear()

        for (face in faces) {
            val bounds = face.bounds
            val left = bounds.left
            val top = bounds.top
            val right = bounds.right
            val bottom = bounds.bottom

            val rawFaceRect = RectF(left.toFloat(), top.toFloat(), right.toFloat(), bottom.toFloat())
            mFaceDetectMatrix.mapRect(rawFaceRect)

            val resultFaceRect = if (mCameraFacing == CaptureRequest.LENS_FACING_FRONT)
                rawFaceRect
            else
                RectF(rawFaceRect.left, rawFaceRect.top - mPreviewSize.width, rawFaceRect.right, rawFaceRect.bottom - mPreviewSize.width)

            mFacesRect.add(resultFaceRect)

            log("原始人脸位置: ${bounds.width()} * ${bounds.height()}   ${bounds.left} ${bounds.top} ${bounds.right} ${bounds.bottom}   分数: ${face.score}")
            log("转换后人脸位置: ${resultFaceRect.width()} * ${resultFaceRect.height()}   ${resultFaceRect.left} ${resultFaceRect.top} ${resultFaceRect.right} ${resultFaceRect.bottom}   分数: ${face.score}")
        }

        mActivity.runOnUiThread {
            mFaceDetectListener?.onFaceDetect(faces, mFacesRect)
        }
        log("onCaptureCompleted  检测到 ${faces.size} 张人脸")
    }
  1. 当我们拿到检测到的人脸信息后,通过转换关系mFaceDetectMatrix 对其做相应的转换。还需要根据前后摄像头做不同的转换处理

  2. 将转换后的人脸信息通过回调函数传递出去

注意!在实践过程中,我发现这一系列的人脸坐标转换是存在误差的。当我们的预览尺寸与成像尺寸越接近,误差越小。所以,建议在相机支持的尺寸列表中尽量选取与成像尺寸最接近的大小来使用,以减小误差。
关于转换存在误差这个问题,如果小伙伴们有更好的解决方式或者思路,欢迎留言交流讨论。

七、自定义一个FaceView,接收人脸位置信息,并绘制出来

 

class FaceView : View {
    lateinit var mPaint: Paint
    private var mCorlor = "#42ed45"
    private var mFaces: ArrayList<RectF>? = null

    constructor(context: Context) : super(context) {
        init()
    }

    constructor(context: Context, attrs: AttributeSet?) : super(context, attrs) {
        init()
    }

    constructor(context: Context, attrs: AttributeSet?, defStyleAttr: Int) : super(context, attrs, defStyleAttr) {
        init()
    }

    private fun init() {
        mPaint = Paint()
        mPaint.color = Color.parseColor(mCorlor)
        mPaint.style = Paint.Style.STROKE
        mPaint.strokeWidth = TypedValue.applyDimension(TypedValue.COMPLEX_UNIT_DIP, 1f, context.resources.displayMetrics)
        mPaint.isAntiAlias = true
    }


    override fun onDraw(canvas: Canvas) {
        super.onDraw(canvas)
        mFaces?.let {
            for (face in it) {
                canvas.drawRect(face, mPaint)
            }
        }
    }

    fun setFaces(faces: ArrayList<RectF>) {
        this.mFaces = faces
        invalidate()
    }
}

实现效果

效果图.gif

完整代码

https://github.com/smashinggit/Study

注:此工程包含多个module,本文所用代码均在CameraDemo下



转自:https://www.jianshu.com/p/331af6dc2772

  • 0
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
Android Camera2人脸检测是一种基于Android平台的人脸识别技术,在相机应用程序中运用的一种高级功能。 相比于以前的Camera API,Camera2 API为Android设备的相机功能提供了更高级的控制和更丰富的特性。其中一个重要的特性就是人脸检测功能人脸检测是一种计算机图像处理技术,用于在图像或视频中自动检测人脸并识别其特征。Android Camera2 API通过使用人脸检测器(FaceDetector)类来实现这一功能。 使用Camera2 API进行人脸检测的一般步骤如下: 1. 创建一个CameraCaptureSession,用于图像捕获和展示。 2. 创建一个CaptureRequest.Builder对象,配置相机设备的请求参数。 3. 创建一个SurfaceTexture或SurfaceView,用于相机预览。 4. 使用相机设备创建一个CaptureRequest对象,指定捕获的图像格式和目标Surface。 5. 创建一个设置面部检测的FaceDetector对象,并设置相应的参数。 6. 将FaceDetector应用于捕获的图像,并获得检测到的人脸信息。 7. 根据人脸的位置和特征,在相机预览上绘制相应的标记或人脸检测不仅可以用于提高相片的质量,还可以应用于人脸识别、人脸解锁等领域。利用人脸检测功能开发者可以开发出更多有趣和有用的相机应用程序。 需要注意的是,Android Camera2 API中的人脸检测功能可能因设备的不同而有所不同,可能会受到硬件和软件的限制。因此,在开发应用程序或使用该功能时,需要仔细考虑设备的兼容性和性能问题。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值