[6]Android Camera System: Camera HAL-CamX-CHI

一、概览

1.1 旧架构回顾(QCamera & MM-Camera)

1)回顾高通平台Camera HAL历史,之前高通采用的是QCamera & MM-Camera架构,

2)但是为了更精细化控制底层硬件(Sensor/ISP等关键硬件),同时方便手机厂商自定义一些功能,现在提出了CamX-CHI架构,由于在CamX-CHI中完全看不到之前老架构的影子,所以它完全是一个全新的架构,

3)它将一些高度统一的功能性接口抽离出来放到CamX中,将可定制化的部分放在CHI中供不同厂商进行修改,实现各自独有的特色功能,这样设计的好处显而易见,那便是即便开发者对于CamX并不是很了解,但是依然可以很方便的加入自定义的功能,从而降低了开发者在高通平台的开发门槛。

1.2 CamX-CHI基本目录结构

1)接下来我们以最直观的目录结构入手对该架构做一个简单的认识,以下便是CamX-CHI基本目录结构:

该部分代码主要位于 vendor/qcom/proprietary/ 目录下:
2)其中 camx 代表了通用功能性接口的代码实现集合(CamX),chi-cdk代表了可定制化需求的代码实现集合(CHI),

3)从图中可以看出Camx部分对上作为HAL3接口的实现,对下通过v4l2框架与Kernel保持通讯,中间通过互相dlopen so库并获取对方操作接口的方式保持着与CHI的交互。

1.2.1 camx/中主要目录

  1. core/ : 用于存放camx的核心实现模块,其中还包含了主要用于实现hal3接口的hal/目录,以及负责与CHI进行交互的chi/目录(8650如下)

  2. csl/: 用于存放主要负责camx与camera driver的通讯模块,为camx提供了统一的Camera driver控制接口(8650如下)

  3. hwl/: 用于存放自身具有独立运算能力的硬件node,该部分node受csl管理(8650如下)

  4. swl/: 用于存放自身并不具有独立运算能力,必须依靠CPU才能实现的node(8650如下)


1.2.2 chi-cdk/中主要目录

chi-cdk/core

chi-cdk/oem

chi-cdk/oem/multicamera

chi-cdk/oem/node

  1. chioverride/: 用于存放CHI实现的核心模块,负责与camx进行交互并且实现了CHI的总体框架以及具体的业务处理。

  2. bin/: 用于存放平台相关的配置项

  3. topology/: 用于存放用户自定的Usecase xml配置文件

  4. node/: 用于存放用户自定义功能的node

  5. module/: 用于存放不同sensor的配置文件,该部分在初始化sensor的时候需要用到

  6. tuning/: 用于存放不同场景下的效果参数的配置文件

  7. sensor/: 用于存放不同sensor的私有信息以及寄存器配置参数

  8. actuator/: 用于存放不同对焦模块的配置信息

  9. ois/: 用于存放防抖模块的配置信息

  10. flash/: 存放着闪光灯模块的配置信息

  11. eeprom/: 存放着eeprom外部存储模块的配置信息

  12. fd/: 存放了人脸识别模块的配置信息


二、基本组件概念

2.1. Usecase

2.1.1 概念

作为CamX-CHI中最大的抽象概念,其中包含了多条实现特定功能的Pipeline,具体实现是在CHI中通过Usecase类完成的,该类主要负责了其中的业务处理以及资源的管理。

2.1.2 通用接口

1)Usecase类,提供了一系列通用接口,作为现有的所有Usecase的基类,

2)其中,AdvancedCameraUsecase又继承于CameraUsecaseBase相机中绝大部分场景会通过实例化AdvancedCameraUsecase来完成,它包括了几个主要接口:

  1. Create(): 该方法是静态方法,用于创建一个AdvancedCameraUsecase实例,

    1. 在其构造方法中会去获取XML中的相应的Usecase配置信息。

  2. ExecuteCaptureRequest(): 该方法用于下发一次Request请求。

  3. ProcessResultCb(): 该方法会在创建Session的过程中,

    1. 作为回调方法注册到其中,一旦Session数据处理完成的时候便会

    2. 调用该方法将结果发送到AdvancedCameraUsecase中。

  4. ProcessDriverPartialCaptureResult(): 该方法会在创建Session的过程中,

    1. 作为回调方法注册到其中,一旦Session中产生了partial meta data的时候,

    2. 便会调用该方法将其发送至AdvancedCameraUsecase中。

  5. ProcessMessageCb(): 该方法会在创建Session的过程中,作为回调方法注册到其中,

    1. 一旦Session产生任何事件,便会调用该方法通知到AdvancedCameraUsecase中。

  6. ExecuteFlush(): 该方法用于刷新AdvancedCameraUsecase。

  7. Destroy(): 该方法用于安全销毁AdvancedCameraUsecase。


3)Usecase的可定制化部分被抽象出来放在了common_usecase.xml文件中,这里简单介绍其中的几个主要的标签含义:
Usecase

  1. UsecaseName: 代表了该Usecase的名字,后期根据这个名字找到这个Usecase的定义。

  2. Targets: 用于表示用于输出的数据流的集合,其中包括了数据流的格式,输出Size的范围等。

  3. Pipeline: 用于定义该Usecase可以是使用的所有Pipeline,这里必须至少定义一条Pipeline。


2.2. Feature

2.2.1 概念

1)代表了一个特定的功能,该功能需要多条Pipeline组合起来实现,受Usecase统一管理,

2)在CHI中通过Feature类进行实现,在XML中没有对应的定义,具体的Feature选取工作是在Usecase中完成的,通过在创建Feature的时候,传入Usecase的实例的方式,来和Usecase进行相互访问各自的资源。

3)以下是现有的Feature,其中Feature作为基类存在,定义了一系列通用方法。

2.2.2 常用的Feature

  1. FeatureHDR: 用于实现HDR功能,它负责管理内部的一条或者几条pipeline的资源以及它们的流转,

    1. 最终输出具有HDR效果的图像。

  2. FeatureMFNR: 用于实现MFNR功能,内部分为几个大的流程,分别包括

    1. Prefiltering、Blending、Postfilter以及最终的OfflineNoiseReproces

    2. (这一个是可选择使能的),每一个小功能中包含了各自的pipeline。

  3. FeatureASD: 用于AI功能的实现,在预览的时候,接收每一帧数据,

    1. 并且进行分析当前场景的AI识别输出结果,并其通过诸如到metadata方式给到上层,进行后续的处理。


2.3. Session

2.3.1 概念

1)用于管理pipeline的抽象控制单元,一个Session中至少拥有一个pipeine,并且控制着所有的硬件资源,管控着每一个内部pipeline的request的流转以及数据的输入输出,

2)它没有可定制化的部分,所以在CHI中的XML文件中并没有将Session作为一个独立的单元进行定义。

Camera session是指在移动设备上使用相机进行拍摄或录制视频时,与相机硬件进行交互的过程。在Android系统中,相机session是通过Camera API来实现的。开发者可以通过Camera API来创建相机session,并控制相机的参数,如曝光、白平衡、焦距等。同时,开发者还可以通过Camera API来获取相机的预览画面,并进行图像处理和分析。在相机session中,开发者可以使用不同的模式来进行拍摄或录制,如照片模式、视频模式、慢动作模式等。相机session是移动应用开发中常用的技术之一,被广泛应用于拍照、直播、视频通话等场景。

2.3.2 主要接口

Session的实现主要通过CamX中的Session类,其主要接口如下:

  1. Initialize(): 根据传入的参数SessionCreateData进行Session的初始化工作。

  2. NotifyResult(): 内部的Pipeline通过该接口将结果发送到Session中。

  3. ProcessCaptureRequest(): 该方法用于用户决定发送一个Request到Session中的时候调用。

  4. StreamOn(): 通过传入的Pipeline句柄,开始硬件的数据传输

  5. StreamOff(): 通过传入的Pipeline句柄,停止硬件的数据传输


2.4. Pipeline

2.4.1 概念

1)作为提供单一特定功能的所有资源的集合,维护着所有硬件资源以及数据的流转,

2)每一个Pipeline包括了其中的Node/Link,在CamX中通过Pipeline类进行实现,负责整条Pipeline的软硬件资源的维护以及业务逻辑的处理,接下来我们简单看下该类的几个主要接口:

2.4.2 主要接口

  1. Create(): 该方法是一个静态方法,根据传入的PipelineCreateInputData信息来实例化一个Pipeline对象。

  2. StreamOn(): 通知Pipeline开始硬件的数据传输

  3. StreamOff(): 通知Pipeline停止硬件的数据传输

  4. FinalizePipeline(): 用于完成Pipeline的设置工作

  5. OpenRequest(): open一个CSL用于流转的Request

  6. ProcessRequest(): 开始下发Request

  7. NotifyNodeMetadataDone(): 该方法是Pipeline提供给Node,当Node内部生成了metadata,便会调用该方法来通知metadata已经完成,最后当所有Node都通知Pipeline metadata已经完成,Pipeline 便会调用ProcessMetadataRequestIdDone通知Session

  8. NotifyNodePartialMetadataDone(): 该方法是Pipeline提供给Node,当Node内部生成了partial metadata,便会调用该方法来通知metadata已经完成,最后当所有Node都通知Pipeline metadata已经完成,Pipeline 便会调用ProcessPartialMetadataRequestIdDone通知Session。

  9. SinkPortFenceSignaled(): 用来通知Session 某个sink port的fence处于被触发的状态。

  10. NonSinkPortFenceSignaled(): 用来通知Session 某个non sink port的fence处于被触发的状态。

    1. Pipeline中的Node以及连接方式都在XML中被定义,其主要包含了以下几个标签定义:

  11. PipelineName: 用来定义该条Pipeline的名称

  12. NodeList: 该标签中定义了该条Pipeline的所有的Node

  13. PortLinkages: 该标签定义了Node上不同端口之间的连接关系

问题:fence ?

答案:Camera fence是指在移动设备上使用相机进行拍摄或录制视频时,为了避免相机被其他应用程序占用而设置的一种机制。在Android系统中,相机fence是通过Camera API来实现的。当一个应用程序需要使用相机时,它需要向系统申请一个相机fence,并等待系统分配一个可用的相机资源。一旦分配成功,该应用程序就可以独占该相机资源,并进行拍摄或录制操作。如果其他应用程序也需要使用相机,则需要等待当前应用程序释放相机资源后才能继续使用。相机fence机制可以保证多个应用程序之间的相机资源不会发生冲突,从而提高了相机的稳定性和可靠性

问题:qcom fence ?

答案:QCOM Camera Fence是高通公司在Android系统中实现的一种相机fence机制。它基于硬件层面的相机控制器,可以提供更高的相机资源管理效率和更好的性能表现。QCOM Camera Fence机制可以支持多个应用程序同时使用相机,并保证它们之间的资源不会发生冲突。同时,QCOM Camera Fence还支持多种相机模式,如照片模式、视频模式、慢动作模式等,可以满足不同应用程序的需求。在使用QCOM Camera Fence时,开发者需要使用特定的API来进行相机资源的申请和释放,以确保相机资源的正确管理和使用。QCOM Camera Fence机制已经被广泛应用于高通公司的移动设备中,并被认为是一种高效、稳定、可靠的相机资源管理方案。

2.5. Node

1)作为单个具有独立处理功能的抽象模块,可以是硬件单元也可以是软件单元,

2)关于Node的具体实现是CamX中的Node类来完成的,其中CamX-CHI中主要分为两个大类,

一个是高通自己实现的Node包括硬件Node,

一个是CHI中提供给用户进行实现的Node,其主要方法如下:

  1. Create(): 该方法是静态方法,用于实例化一个Node对象。

  2. ExecuteProcessRequest(): 该方法用于针对hwl node下发request的操作。

  3. ProcessRequestIdDone(): 一旦该Node当前request已经处理完成,便会通过调用该方法通知Pipeline

  4. ProcessMetadataDone(): 一旦该Node的当前request的metadata已经生成,便会通过调用该方法通知到Pipeline

  5. ProcessPartialMetadataDone(): 一旦该Node的当前request的partial metadata已经生成,便会通过调用该方法通知到Pipeline。

  6. CreateImageBufferManager(): 创建ImageBufferManager

    1. 其可定制化的部分作为标签在XML中进行定义:

  7. NodeName: 用来定义该Node的名称

  8. NodeId: 用来指定该Node的ID,其中IPE NodeId为65538,IFE NodeId为65536,用户自定义的NodeId为255。

  9. NodeInstance: 用于定义该Node的当前实例的名称。

  10. NodeInstanceId: 用于指定该Node实例的Id。


2.6. Link

1)用于定义不同Port的连接,一个Port可以根据需要建立多条与其它从属于不同Node的Port的连接,它通过标签来进行定义,其中包括了作为输入端口,作为输出端口。

2)一个Link中包含了一个SrcPort和一个DstPort,分别代表了输入端口和输出端口,然后BufferProperties用于表示两个端口之间的buffer配置。

2.7. Port


1)作为Node的输入输出的端口,在XML文件中,标签用来定义一个输入端口,标签用来定义输出端口,

2)每一个Node都可以根据需要使用一个或者多个输入输出端口,使用OutputPort以及InputPort结构体来进行在代码中定义。
Port

  1. PortId: 该端口的Id: 该端口的名称

  2. NodeName: 该端口从属的Node名称

  3. NodeId: 该端口从属的Node的Id

  4. NodeInstance: 该端口从属的Node的实例名称

  5. NodeInstanceId: 该端口从属的Node的实例的Id


三、组件结构关系

3.1 组件概要

1)通过之前的介绍,我们对于几个基本组件有了一个比较清晰地认识,但是任何一个框架体系并不是仅靠组件胡乱堆砌而成的,相反,它们都必须基于各自的定位,按照各自所独有的行为模式,同时按照约定俗称的一系列规则组合起来,共同完成整个框架某一特定的功能。

2)所以这里不得不产生一个疑问,在该框架中它们到底是如何组织起来的呢?它们之间的关系又是如何的呢? 接下来我们以下图入手开始进行分析:

3.2 组件关系

3.2.1 总体

由上图可以看到,几者是通过包含关系组合起来的,Usecase 包含Feature,而Feature包含了Session,Session又维护了内部的Pipeline的流转,而每一条pipeline中又通过Link将所有Node都连接了起来,接下我们就这几种关系详细讲解下:

3.2.2 细节

1)首先,一个Usecase代表了某个特定的图像采集场景,比如人像场景,后置拍照场景等等,在初始化的时候通过根据上层传入的一些具体信息来进行创建,这个过程中,一方面实例化了特定的Usecase,这个实例是用来管理整个场景的所有资源,同时也负责了其中的业务处理逻辑,另一方面,获取了定义在XML中的特定Usecase,获取了用于实现某些特定功能的pipeline。

2)其次,在Usecase中,Feature是一个可选项,如果当前用户选择了HDR模式或者需要在Zoom下进行拍照等特殊功能的话,在Usecase创建过程中,便会根据需要创建一个或者多个Feature,一般一个Feature对应着一个特定的功能,如果场景中并不需要任何特定的功能,则也完全可以不使用也不创建任何Feature。

3)然后,每一个Usecase或者Feature都可以包含一个或者多个Session,每一个Session都是直接管理并负责了内部的Pipeline的数据流转,其中每一次的Request都是Usecase或者Featuret通过Session下发到内部的Pipeline进行处理,数据处理完成之后也是通过Session的方法将结果给到CHI中,之后是直接给到上层还是将数据封装下再次下发到另一个Session中进行后处理,这都交由CHI来决定。

4)其中,Session和Pipeline是一对多的关系,通常一个Session只包含了一条Pipeline,用于某个特定图像处理功能的实现,但是也不绝对,比如FeatureMFNR中包含的Session就包括了三条pipeline,又比如后置人像预览,也是用一个Session包含了两条分别用于主副双摄预览的Pipeline,主要是要看当前功能需要的pipeline数量以及它们之间是否存在一定关联

5)同时,根据上面关于Pipeline的定义,它内部包含了一定数量的Node,并且实现的功能越复杂,所包含的Node也就越多,同时Node之间的连接也就越错综复杂,比如后置人像预览虚化效果的实现就是将拿到的主副双摄的图像通过RTBOfflinePreview这一条Pipeline将两帧图像合成一帧具有虚化效果的图像,从而完成了虚化功能。

6)最后Pipeline中的Node的连接方式是通过XML文件中的Link来进行描述的,每一个Link定义了一个输入端和输出端分别对应着不同Node上面的输入输出端口,通过这种方式就将其中的一个Node的输出端与另外一个Node的输入端,一个一个串联起来,

=》等到图像数据从Pipeline的起始端开始输入的时候,便可以按照这种定义好的轨迹在一个一个Node之间进行流转,而在流转的过程中每经过一个Node都会在内部对数据进行处理,

=》这样等到数据从起始端一直流转到最后一个Node的输出端的时候,数据就经过了很多次处理,这些处理效果最后叠加在一起便是该Pipeline所要实现的功能,比如降噪、虚化等等。

四、关键流程详解

4.1. Provider 启动初始化

1)当系统启动的时候,Camera Provider主程序会被运行,在整个程序初始化的过程中会通过获取到的camera_module_t调用其get_number_of_camera接口获取底层支持的camera数量,由于是第一次获取,所以在CamX-CHI中会伴随着很多初始化动作,具体操作见下图:

在这里插入图片描述

2)主要流程如下:

  1. 通过HAL3Module::GetInstance()静态方法实例化了HAL3Module对象,

    1. 在其构造方法里面通过HwEnvironment::GetInstance()静态方法又实例化了HwEnvironment对象,

    2. 在其构造方法中,实例化了SettingsManager对象,然后又在它构造方法中通过

    3. OverrideSettingsFile对象获取了位于/vendor/etc/camera/camoverridesettings.txt

    4. 文件中的平台相关的配置信息(通过这种Override机制方便平台厂商加入自定义配置),

    5. 该配置文件中,可以加入平台特定的配置项,比如可以通过设置multiCameraEnable的值

    6. 来表示当前平台是否支持多摄,或者通过设置overrideLogLevels设置项来配置

    7. CamX-CHI部分的Log输出等级等等。

  2. 同时在HwEnvironment构造方法中会调用其Initialize方法,在该方法中实例化了CSLModeManager对象,

    1. 并通过CSLModeManager提供的接口,获取了所有底层支持的硬件设备信息,

    2. 其中包括了Camera Request Manager、CAPS模块(该驱动模块主要用于CSL获取Camera平台驱动信息,

    3. 以及IPE/BPS模块的电源控制)以及Sensor/IPE/Flash等硬件模块,并且通过调用

    4. CSLHwInternalProbeSensorHW方法获取了当前设备安装的Sensor模组信息,

    5. 并且将获取的信息暂存起来,等待后续阶段使用,总得来说在HwEnvironment初始化的过程中,

    6. 通过探测方法获取了所有底层的硬件驱动模块,并将其信息存储下来供后续阶段使用。


3)之后通过调用HwEnvironment对象中的ProbeChiCompoents方法在/vendor/lib64/camera/components路径下找寻各个Node生成的So库,并获取Node提供的标准对外接口,这些Node不但包括CHI部分用户自定义的模块,还包括了CamX部分实现的硬件模块,并最后都将其都存入ExternalComponentInfo对象中,等待后续阶段使用。

4)另外在初始化阶段还有一个比较重要的操作就是CamX 与CHI是通过互相dlopen对方的So库,获取了对方的入口方法,最后通过彼此的入口方法获取了对方操作方法集合,之后再通过这些操作方法与对方进行通讯,其主要流程见下图:

5)从上图不难看出,在HAL3Module构造方法中会去通过dlopen方法加载com.qti.chi.override.so库,并通过dlsym映射出CHI部分的入口方法chi_hal_override_entry,并调用该方法将HAL3Module对像中的成员变量m_ChiAppCallbacks(CHIAppCallbacks)传入CHI中,其中包含了很多函数指针,这些函数指针分别对应着CHI部分的操作方法集中的方法,一旦进入到CHI中,就会将CHI本地的操作方法集合中的函数地址依次赋值给m_ChiAppCallbacks,这样CamX后续就可以通过这个成员变量调用到CHI中方法,从而保持了与CHI的通讯。

6)同样地,CHI中的ExtensionModule在初始化的时候,其构造方法中也会通过调用dlopen方法加载camera.qcom.so库,并将其入口方法ChiEntry通过dlsym映射出来,之后调用该方法,将g_chiContextOps(ChiContextOps,该结构体中定义了很多指针函数)作为参数传入CamX中,一旦进入CamX中,便会将本地的操作方法地址依次赋值给g_chiContextOps中的每一个函数指针,这样CHI之后就可以通过g_chiContextOps访问到CamX方法

4.2. 打开相机设备/初始化相机设备

一旦用户打开了相机应用,App中便会去调用CameraManager的openCamera方法,该方法之后会最终调用到Camera Service中的CameraService::connectDevice方法,

然后通过ICameraDevice::open()这一个HIDL接口通知Provider,然后在Provider内部又通过调用之前获取的camera_module_t中methods的open方法来获取一个Camera 设备,

对应于HAL中的camera3_device_t结构体,紧接着,在Provider中会继续调用获取到的camera3_device_t的initialize方法进行初始化动作。

接下来我们便来详细分析下CamX-CHI对于open以及initialize的具体实现流程

a) open

(1)该方法是camera_module_t的标准方法,主要用来获取camera3_device_t设备结构体的,CamX-CHI对其进行了实现,open方法中完成的工作主要有以下几个:

  1. 将当前camera id传入CHI中进行remap操作,当然这个remap操作逻辑完全是根据CHI中用户需求来的,

    1. 用户可以根据自己的需要在CHI中加入自定义remap逻辑。

  2. 实例化HALDevice对象,其构造函数中调用Initialize方法,

    1. 该方法会填充CamX中自定义的Camera3Device结构体。

  3. 将m_HALCallbacks.process_capture_result指向了本地方法ProcessCaptureResult

    1. 以及m_HALCallbacks.notify_result指向了本地方法Notify

    2. (之后会在配置数据流的过程中,将m_HALCallbacks注册到CHI中, 一旦当CHI数据处理完成之后,

    3. 便会通过这两个回调方法将数据或者事件回传给CamX)。

  4. 最后将HALDevice 中的Camera3Device成员变量作为返回值给到Provider中的CameraCaptureSession中。

(2)Camera3Device 其实重定义了camera3_device_t,

=》其中HwDevice对应于camera3_device_t中的hw_device_t,

=》Camera3DeviceOps对应于camera3_device_ops_t,

而在HALDevice的初始化过程中,会将CamX实现的HAL3接口的结构体g_camera3DeviceOps赋值给Camera3DeviceOps中。

b) initialize

(1)该方法在调用open后紧接着被调用,主要用于将上层的回调接口传入HAL中,一旦有数据或者事件产生,CamX便会通过这些回调接口将数据或者事件上传至调用者,其内部的实现较为简单。

(2)initialize方法中有两个参数,分别是之前通过open方法获取的camera3_device_t结构体和实现了camera3_callback_ops_t的CameraDevice,

(3)很显然camera3_device_t结构体并不是重点,所以该方法的主要工作是将camera3_callback_ops_t与CamX关联上,一旦数据准备完成便通过这里camera3_callback_ops_t中回调方法将数据回传到Camera Provider中的CameraDevice中,基本流程可以总结为以下几点:

  1. 实例化了一个Camera3CbOpsRedirect对象并将其加入了g_HAL3Entry.m_cbOpsList队列中,

    1. 这样方便之后需要的时候能够顺利拿到该对象。

  2. 将本地的process_capture_result以及notify方法地址分别赋值给

    1. Camera3CbOpsRedirect.cbOps中的process_capture_result以及notify函数指针。

  3. 将上层传入的回调方法结构体指针pCamera3CbOpsAPI赋值给Camera3CbOpsRedirect.pCbOpsAPI,

    1. 并将Camera3CbOpsRedirect.cbOps赋值给pCamera3CbOpsAPI,

    2. 通过JumpTableHal3的initialize方法将pCamera3CbOpsAPI传给HALDevice中的

    3. m_pCamera3CbOps成员变量,这样HALDevice中的m_pCamera3CbOps就指向了

    4. CamX中本地方法process_capture_result以及notify

(4)经过这样的一番操作之后,

=》一旦CHI有数据传入便会首先进入到本地方法ProcessCaptureResult,

=》然后在该方法中获取到HALDevice的成员变量m_pCamera3CbOps,进而调用m_pCamera3CbOps中的process_capture_result方法,即camxhal3entry.cpp中定义的process_capture_result方法

=》然后这个方法中会去调用JumpTableHAL3.process_capture_result方法,该方法最终会去调用Camera3CbOpsRedirect.pCbOpsAPI中的process_capture_result方法,

=》这样就调到从Provider传入的回调方法,将数据顺利给到了CameraCaptureSession中。

4.3. 配置相机设备数据流

4.3.1 配置流程概要

1)在打开相机应用过程中,App在获取并打开相机设备之后,会调用CameraDevice.createCaptureSession来获取CameraDeviceSession,

2)并且通过Camera api v2标准接口,通知Camera Service,调用其CameraDeviceClient.endConfigure方法,在该方法内部又会去通过HIDL接口ICameraDeviceSession::configureStreams_3_4通知Provider开始处理此次配置需求,

3)在Provider内部,会去通过在调用open流程中获取的camera3_device_t结构体的configure_streams方法来将数据流的配置传入CamX-CHI中,

4)之后由CamX-CHI完成对数据流的配置工作,

4.3.2 HAL3接口 configure_streams的具体实现

接下来我们来详细分析下CamX-CHI对于该标准HAL3接口 configure_streams的具体实现:

配置数据流是整个CamX-CHI流程比较重要的一环,其中主要包括两个阶段:

  1. 选择UsecaseId

  2. 根据选择的UsecaseId创建Usecase

接下来我们就这两个阶段分别进行详细介绍:

① 选择UsecaseId

(1)不同的UsecaseId分别对应的不同的应用场景,该阶段是通过调用UsecaseSelector::GetMatchingUsecase()方法来实现的,

(2)该函数中通过传入的operation_mode、num_streams配置数据流数量以及当前使用的Sensor个数来选择相应的UsecaseId,

(3)比如当numPhysicalCameras值大于1同时配置的数据流数量num_streams大于1时选择的就是UsecaseId::MultiCamera,表示当前采用的是双摄场景。

② 创建Usecase

(1)根据之前选择的UsecaseId,通过UsecaseFactory来创建相应的Usecase,

(2)其中Class Usecase是所有Usecase的基类,其中定义并实现了一些通用接口,CameraUsecaseBase继承于Usecase,并扩展了部分功能。

(3)AdvancedCameraUsecase又继承于CameraUsecaseBase,作为主要负责大部分场景的Usecase实现类,

(4)另外对于多摄场景,现提供了继承于AdvancedCameraUsecase的UsecaseMultiCamera来负责实现。

(5)除了双摄场景,其它大部分场景使用的都是AdvancedCameraUsecase类来管理各项资源的,接下来我们重点梳理下AdvancedCameraUsecase::Create()方法。

4.3.2 AdvancedCameraUsecase::Create()

Create的几个阶段

(1)在AdvancedCameraUsecase::Create方法中做了很多初始化操作,其中包括了以下几个阶段:

  1. 获取XML文件中Usecase配置信息

  2. 创建Feature

  3. 保存数据流,重建Usecase的配置信息

  4. 调用父类CameraUsecaseBase的initialize方法,进行一些常规初始化工作

接下来我们就这几个阶段逐一进行分析:
 

1. 获取XML文件中Usecase配置信息

1)这一部分主要通过调用CameraUsecaseBase::GetXMLUsecaseByName方法进行实现。
2)该方法的主要操作是从PerNumTargetUsecases数组中找到匹配到给定的usecaseName的Usecase,并作为返回值返回给调用者,

3)其中这里我们以"UsecaseZSL“为例进行分析,PerNumTargetUsecases的定义是在g_pipeline.h中,该文件是在编译过程中通过usecaseconverter.pl脚本将定义在个平台目录下的common_usecase.xml中的内容转换生成g_pipeline.h。

2.创建Feature

1)如果当前场景选取了Feature,则调用FeatureSetup来完成创建工作。
2)该方法主要是通过诸如operation_mode、camera数量以及UsecaseId等信息来决定需要选择哪些Feature,具体逻辑比较清晰,一旦决定需要使用哪一个Feature之后,便调用相应的Feature的Create()方法进行初始化操作。

3.保存数据流,重建Usecase的配置信息

1)从Camera Service 传入的数据流,需要将其存储下来,供后续使用,

2)同时高通针对Usecase也加入了Override机制,根据需要可以选择性地扩展Usecase,这两个步骤的实现主要是通过SelectUsecaseConfig方法来实现。

3)其中主要是调用以下两个方法来实现的:

  1. ConfigureStream: 该方法将从上层配置的数据流指针存入AdvancedCameraUsecase中,

    1. 其中包括了用于预览的m_pPreviewStream以及用于拍照的m_pSnapshotStream。

  2. BuildUsecase: 这个方法用来重新在原有的Usecase上面加入了Feature中所需要的pipeline,

    1. 并创建了一个新的Usecase,并将其存入AdvancedCameraUsecase中的m_pChiUsecase成员变量中,

    2. 紧接着通过SetPipelineToSessionMapping方法将pipeline与Session进行关联。


4.调用父类CameraUsecaseBase的initialize方法,进行一些常规初始化工作

该方法中的操作主要有以下三个:

  1. 设置Session回调

  2. 创建Pipeline

  3. 创建Session

(1)设置Session回调

该方法有两个参数,第二个是缺省的,第一个是ChiCallBacks,该参数是作为创建的每一条Session的回调方法,当Session中的pipeline全部跑完之后,会回调该方法将数据投递到CHI中。

(2)创建Pipeline
根据之前获取的pipeline信息开始创建每一条pipeline,通过调用CreatePipeline()方法实现。

(3)创建Session
创建Session,通过CreateSession()方法实现,此时会将AdvancedCameraUsecase端的回调函数注册到Session中,一旦Session中数据处理完成,便会调用回调将数据回传给AdvancedCameraUsecase。

小结

综上,整个configure_stream过程,基本可以概括为以下几点:

  1. 根据operation_mode、camera 个数以及stream的配置信息选取了对应的UsecaseId

  2. 根据所选取的UsecaseId,使用UsecaseFactory简单工厂类创建了用于管理整个场景

    1. 下所有资源的AdvancedCameraUsecase对象。

  3. 创建AdvancedCameraUsecase对象是通过调用其Create()方法完成,该方法中获取了common_usecase.xml

    1. 定义的关于Usecase的配置信息,之后又根据需要创建了Feature并选取了Feature所需的pipeline,

    2. 并通过Override机制将Feature中所需要的Pipeline加入重建后的Usecase中。

  4. 最后通过调用CameraUsecaseBaese的initialize方法依次创建了各个pipeline以及Session

    1. 并且将AdvancedCameraUsecase的成员方法注册到Session,用于Session将数据返回给Usecase中


4.4. 处理拍照请求

4.4.1 流程概要

(1)当用户打开相机应用进行预览或者点击一次拍照操作的时候,便触发了一次拍照请求,

(2)该动作首先通过CameraDeviceSession的capture或者setRepeatingRequest方法将请求通过Camera api v2接口下发到Camera Service中,

(3)然后在Camera Service内部将此次请求发送到CameraDevice::RequestThread线程中进行处理,一旦进入到该线程之后,便会最终通过HIDL接口ICameraCaptureSession:processCaptureRequest_3_4将请求发送至Provider中,

(4)之后当Provider收到请求之后,会调用camera3_device_t结构体的process_capture_request开始了HAL针对此次Request的处理,

(5)而该处理是由CamX-CHI来负责实现,

4.4.2 Camx-CHI 实现方法

A. CamX-CHI Capture request流转概览

现在我们就来看下CamX-CHI是如何实现该方法的:

(1)首先CamX中会将此次request转发到HALDevice中,

(2)再通过HALDevice对象调用之前初始化的时候获取的CHI部分的回调接口m_ChiAppCallbacks.chi_override_process_request方法(chi_override_process_request方法的定义位于chxextensioninterface.cpp中)将request发送到CHI部分。

(3)在chi_override_process_request方法中会去获取ExtensionModule对象,并将request发送到ExtensionModule对象中,

(4)该对象中存储了之前创建的Usecase对象,然后经过层层调用,最终会调用AdvancedCameraUsecase的ExecuteCaptureRequest方法,该方法负责处理此次Request,具体流程如下:

在AdvancedCameraUsecase的ExecuteCaptureRequest中会有两个主要的分支来分别处理:

  1. 如果当前并没有任何Feature需要实现,此时便会走默认流程,根据上面的流程图所示,

    1. 这里会调用CameraUsecaseBase::ExecuteCaptureRequest方法,在该方法中,

    2. 首先会将request取出,重新封装成CHICAPTUREREQUEST,

    3. 然后调用CheckAndActivatePipeline方法唤醒pipeline,

    4. 这一操作到最后会调到Session的StreamOn方法,在唤醒了pipeline之后,继续往下执行,

    5. 再将封装后的Request发送到CamX中,最终调用到相应的Session::ProcessCaptureRequest方法,

    6. 此时Request就进入到了Session内部进行流转了。

  2. 如果当前场景需要实现某个Feature,则直接调用Feature的ExecuteProcessRequest方法

    1. 将此次request送入Feature中处理,最后依然会调用到Session::StreamOn

    2. 以及Session::ProcessCaptureRequest方法来分别完成唤醒pipeline

    3. 以及下发request的到Session的操作。

B. 两个比较关键的方法

该流程最终都会调用到两个比较关键的方法Session::StreamOn以及Session::ProcessCaptureRequest,接下来针对这两个方法重点介绍下:

Session::StreamOn

(1)从方法名称基本可以知道该方法主要用于开始硬件的数据输出,具体点儿就是进行配置Sensor寄存器,让其开始出图,

(2)并且将当前的Session的状态告知每一Node,让它们在自己内部也做好处理数据的准备,

(3)所以之后的相关Request的流转都是以该方法为前提进行的,所以该方法重要性可见一斑,其操作流程见下图:

Session的StreamOn方法中主要做了如下两个工作:

  1. 调用FinalizeDeferPipeline()方法,如果当前pipeline并未初始化,

    1. 则会调用pipeline的FinalizePipeline方法,这里方法里面会去针对每一个从属于

    2. 当前pipeline的Node依次做FinalizeInitialization、CreateBufferManager、

    3. NotifyPipelineCreated以及PrepareNodeStreamOn操作,FinalizeInitialization

    4. 用于完成Node的初始化动作,NotifyPipelineCreated用于通知Node当前Pipeline的状态,

    5. 此时Node内部可以根据自身的需要作相应的操作,PrepareNodeStreamOn方法的主要是完成Sensor以及IFE等Node的控制硬件模块出图前的配置,其中包括了曝光的参数的设置,

    6. CreateBufferManagers方法涉及到CamX-CHI中的一个非常重要的Buffer管理机制,用于Node的ImageBufferManager的创建,

    7. 而该类用于管理Node中的output port的buffer申请/流转/释放等操作。

  2. 调用Pipeline的StreamOn方法,里面会进一步通知CSL部分开启数据流,

    1. 并且调用每一个Node的OnNodeStreamOn方法,该方法会去调用ImageBufferManager的Activate(),

    2. 该方法里面会去真正分配用于装载图像数据的buffer,

    3. 之后会去调用CHI部分实现的用户自定义的Node的pOnStreamOn方法,

    4. 用户可以在该方法中做一些自定义的操作。

Session::ProcessCaptureRequest

(1)针对每一次的Request的流转,都是以该方法为入口开始的,具体流程见下图:

在这里插入图片描述
(2)上述流程可以总结为以下几个步骤:

  1. 通过调用Session的ProcessCaptureRequest方法进入到Session,然后调用Pipeline中的

    1. ProcessRequest方法通知Pipeline开始处理此次Request。

  2. 在Pipeline中,会先去调用内部的每一个Node的SetupRequest方法分别设置该Node的Output Port

    1. 以及Input Port,之后通过调用DRQ(DeferredRequestQueue)的AddDeferredNode方法将所有的Node加入到DRQ中,其中DRQ中有两个队列分别是用于保存没有依赖项的Node的m_readyNodes以及保存处于等待依赖关系满足的Node的m_deferredNodes,

    2. 当调用DRQ的DispatchReadyNodes方法后,会开始从m_readyNodes队列中取出Node调用其ProcessRequest开始进入Node内部处理本次request,

    3. 在处理过程中会更新meta data数据,并更新至DRQ中,当该Node处理完成之后,会将处于m_deferredNodes中的已无依赖关系的Node移到m_readyNodes中,

    4. 并再次调用DispatchReadyNodes方法从m_readyNodes取出Node进行处理。

  3. 与此过程中,当Node的数据处理完成之后会通过CSLFenceCallback通知到Pipeline,

    1. 此时Pipeline会判断当前Node的Output port 是否是Sink Port(输出到CHI)

    2. 如果不是,则会更新依赖项到DRQ中,并且将不存在依赖项的Node移到m_readyNodes队列中,然后调用DispatchReadyNdoes继续进入到DRQ中流转,

    3. 如果是Sink Port,则表示此Node是整个Pipeline的最末端,调用sinkPortFenceSignaled将数据给到Session中,

    4. 最后通过调用Session中的NotifyResult将结果发送到CHI中。


DeferredRequestQueue

上述流程里面中涉及到DeferredRequestQueue这个概念,这里简单介绍下:
(1)DeferredRequestQueue继承于IPropertyPoolObserver,实现了OnPropertyUpdate/OnMetadataUpdate/OnPropertyFailure/OnMetadataFailure接口,这几个接口用于接收Meta Data以及Property的更新,

Deferred的中文翻译是“延迟的”,通常用于描述异步编程中的回调函数。在异步编程中,Deferred对象表示一个异步操作的结果,它可以包含一个成功的结果、一个失败的异常或者一个被取消的状态。当异步操作完成后,Twisted会将结果传递给Deferred对象的回调函数进行处理。因此,Deferred可以被理解为“延迟的”回调函数,它可以在异步操作完成后被调用,从而实现异步编程的效果。(延迟、依赖)

(2)另外,DRQ主要包含了以下几个主要方法:

  1. Create()

    1. 该方法用于创建DRQ,其中创建了用于存储依赖信息的m_pDependencyMap,

    2. 并将自己注册到MetadataPool中,一旦有meta data或者property更新便会通过类中实现的几个接口通知到DRQ。

  2. DispatchReadyNodes()

    1. 该方法主要用于将处于m_readyNodes队列的Node取出,将其投递到m_hDeferredWorker线程中进行处理。

  3. AddDeferredNode()

    1. 该方法主要用于添加依赖项到m_pDependencyMap中。

  4. FenceSignaledCallback()

    1. 当Node内部针对某次request处理完成之后,会通过一系列回调通知到DRQ而其调用的方法便是该方法,

    2. 在该方法中,会首先调用UpdateDependency更新依赖项,

    3. 然后调用DispatchReadyNodes触发开始对处于ready状态的Node开始进行处理

  5. OnPropertyUpdate()

    1. 该方法是定义于IPropertyPoolObserver接口,DRQ实现了它,主要用于接收Property更新的通知,

    2. 并在内部调用UpdateDependency更新依赖项。

  6. OnMetadataUpdate()

    1. 该方法是定义于IPropertyPoolObserver接口,DRQ实现了它,主要用于接收Meta data更新的通知,

    2. 并在内部调用UpdateDependency更新依赖项。

  7. UpdateDependency()

    1. 该方法用于更新Node的依赖项信息,并且将没有依赖的Node从m_deferredNodes队列中

    2. 移到m_readyNodes,这样该Node就可以在之后的某次DispatchReadyNodes调用之后投入运行。

  8. DeferredWorkerWrapper()

    1. 该方法是m_hDeferredWorker线程的处理函数,主要用于处理需要下发request的Node,

    2. 同时再次更新依赖项,最后会再次调用DispatchReadyNodes开始处理。

(3)其中需要注意的是,Pipeline首次针对每一个Node通过调用AddDeferredNode方法加入到DRQ中,此时所有的Node都会加入到m_readyNodes中,然后通过调用dispatchReadyNodes方法,触发DRQ开始进行整个内部处理流程,基本流程可以参见下图,接下来就以该图进行深入梳理下:

  1. 当调用了DRQ的dispatchReadyNodes方法后,会从m_readyNodes链表里面依次取出Dependency,

    1. 将其投递到DeferredWorkerWrapper线程中,在该线程会从Dependency取出Node调用

    2. 其ProcessRequest方法开始在Node内部处理本次request,处理完成之后如果当前Node依然存在依赖项,

    3. 则调用AddDeferredNode方法将Node再次加入到m_deferredNodes链表中,

    4. 并且加入新的依赖项,存入m_pDependencyMap hash表中。

  2. 在Node处理request的过程中,会持续更新meta data以及property,

    1. 此时会通过调用MetadataSlot的PublishMetadata方法更新到MetadataPool中,

    2. 此时MetadataPool会调用之前在DRQ初始化时候注册的几个回调方法OnPropertyUpdate

    3. 以及OnMetadataUpdate方法通知DRQ,此时有新的meta data 和property更新,

    4. 接下来会在这两个方法中调用UpdateDependency方法,去更新meta data

    5. 和property到m_pDependencyMap中,并且将没有任何依赖项的Node从m_deferredNodes

    6. 取出加入到m_readyNodes,等待处理。

  3. 与此同时,Node的处理结果也会通过ProcessFenceCallback方法通知pipeline,

    1. 并且调用pipeline的NonSinkPortFenceSignaled方法,在该方法内部又会去

    2. 调用DRQ的FenceSignaledCallback方法,而该方法又会调用UpdateDependency更新依赖,

    3. 并将依赖项都满足的Node从m_deferredNodes取出加入到m_readyNodes,

    4. 然后调用dispatchReadyNodes继续进行处理。


4.5. 上传拍照结果

4.5.1 流程概要

(1)在用户开启了相机应用,相机框架收到某次Request请求之后会开始对其进行处理,

(2)一旦有图像数据产生便会通过层层回调最终返回到应用层进行显示,这里我们针对CamX-CHI部分对于拍照结果的上传流程进行一个简单的梳理:

4.5.2 Result上传过程

每一个Request对应了三个Result,分别是partial metadata、metadata以及image data,对于每一个Result,上传过程可以大致分为以下两个阶段:

  1. Session内部完成图像数据的处理,将结果发送至Usecase中

  2. Usecase接收到来自Session的数据,并将其上传至Provider

A. Session->Usecase流程

(1)首先来看下Session内部完成图像数据的处理后是如何将结果发送至Usecase的:

在这里插入图片描述

Partial Meta Data

(2)在整个requets流转的过程中,一旦Node中有Partial Meta Data产生,便会调用Node的ProcessPartialMetadataDone方法去通知从属的Pipeline,其内部又调用了pipeline的NotifyNodePartialMetadataDone方法。

(3)每次调用Pipeline的NotifyNodePartialMetadataDone方法都会去将pPerRequestInfo→numNodesPartialMetadataDone加一并且判断当前值是否等于pipeline中的Node数量,一旦相等,便说明当前所有的Node都完成了partial meta data的更新动作,

(4)此时,便会调用ProcessPartialMetadataRequestIdDone方法,里面会去取出partial meta data,并且重新封装成ResultsData结构体,将其作为参数通过Session的NotifyResult方法传入Session中,

(5)之后在Session中经过层层调用最终会调用到内部成员变量m_chiCallBacks的ChiProcessPartialCaptureResult方法,该方法正是创建Session的时候,传入Session中的Usecase的方法(AdvancedCameraUsecase::ProcessDriverPartialCaptureResultCb),通过该方法就将meta data返回到了CHI中。

Meta data的逻辑

(6)同样地,Meta data的逻辑和Partial Meta Data很相似,每个Node在处理request的过程中,会调用ProcessMetadataDone方法将数据发送到Pipeline中,

(7)一旦所有的Node的meta data否发送完成了,pipeline会调用NotifyNodeMetadataDone方法,将最终的结果发送至Session中,

(8)最后经过层层调用,会调用Session 中成员变量m_chiCallBacks的ChiProcessCaptureResult方法,将结果发送到CHI中Usecase中。

图像数据的流转和前两个meta data的流转差异

(9)图像数据的流转和前两个meta data的流转有点儿差异,一旦Node内部图像数据处理完成后便会调用其ProcessFenceCallback方法,

(10)在该方法中会去检查当前输出是否是SInk Buffer,如果是则会调用Pipeline的SinkPortFenceSignaled方法将数据发送到Pipeline中,

(11)在该方法中Pipeline又会将数据发送至Session中,最后经过层层调用,会调用Session 中成员变量m_chiCallBacks的ChiProcessCaptureResult方法,将结果发送到CHI中Usecase中。

B. Usecase->Provider流程

接下来我们来看下一旦Usecase接收到Session的数据,是如何发送至Provider的:

我们以常用的AdvancedCameraUsecase为例进行代码的梳理:

在这里插入图片描述

如上图所示,整个result的流转逻辑还是比较清晰的,CamX通过回调方法将结果回传给CHI中,而在CHI中,

(1)首先判断是否需要发送到具体的Feature的, 如果需要,则调用相应Feature的ProcessDriverPartialCaptureResult或者ProcessResult方法将结果发送到具体的Feature中,

(2)一旦处理完成,便会调用调用CameraUsecaseBase的ProcessAndReturnPartialMetadataFinishedResults以及ProcessAndReturnFinishedResults方法将结果发送到Usecase中,

(3)如果当前不需要发送到Feature进行处理,就在AdvancedCameraUsecase中调用CameraUsecaseBase的SessionCbPartialCaptureResult以及SessionCbCaptureResult方法,

(4)然后通过Usecase::ReturnFrameResult方法将结果发送到ExtensionModule中,

(5)之后调用ExtensionModule中存储的CamX中的回调函数process_capture_result将结果发送到CamX中的HALDevice中,

(6)之后HALDevice又通过之前存储的上层传入的回调方法,将结果最终发送到CameraDeviceSession中。

五、总结

(1)通过以上的梳理,可以发现,整个CamX-CHI框架设计的很不错,目录结构清晰明确,框架简单高效,流程控制逻辑分明,

(2)比如针对某一图像请求,整个流程经过Usecase、Feature、Session、Pipeline并且给到具体的Node中进行处理,最终输出结果。

(3)另外,相比较之前的QCamera & Mm-Camera框架的针对某个算法的扩展需要在整个流程代码中嵌入自定义的修改做法而言,CamX-CHI通过将自定义实现的放入CHI中,提高了其扩展性,降低了开发门槛,使得平台厂商在并不是很熟悉CamX框架的情况下也可以通过小规模的修改成功添加新功能。

(4)但是人无完人,框架也是一样,该框架异步化处理太多,加大了定位问题以及解决问题的难度,给开发者带来了不小的压力

(5)另外,框架对于内存的要求较高,所以在一些低端机型尤其是低内存机型上,整个框架的运行效率可能会受到一定的限制,进而导致相机效率低于预期。

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 在 Android 系统中,`ProcessState::self()->startThreadPool()` 用于启动 Binder 线程池服务,而 `IPCThreadState::self()->joinThreadPool()` 则是让当前线程加入到 Binder 线程池中。如果一个 HAL service 没有调用 `ProcessState::self()->startThreadPool()`,但是调用了 `IPCThreadState::self()->joinThreadPool()`,那么该 HAL service 就会试图将当前线程加入到不存在的线程池中,这会导致运行时错误。因此,HAL service 在启动时应该始终调用 `ProcessState::self()->startThreadPool()` 来启动 Binder 线程池服务,以便正确地加入到 Binder 线程池中。 ### 回答2: 如果一个 HAL 服务没有调用 `ProcessState::self()->startThreadPool()`,而只调用了 `IPCThreadState::self()->joinThreadPool()`,可能出现以下情况: 1. HAL 服务是在其他进程中运行的:`ProcessState::self()->startThreadPool()` 用于在当前进程中启动线程池,而 `IPCThreadState::self()->joinThreadPool()` 用于加入现有的线程池。所以如果一个 HAL 服务运行在其他进程中,它只需要加入已经被其他服务启动的线程池即可。 2. HAL 服务是在单线程环境下运行的:在某些情况下,HAL 服务可能是在单线程环境中运行的,不需要多线程支持。此时,并不需要调用 `ProcessState::self()->startThreadPool()` 来启动线程池,只需调用 `IPCThreadState::self()->joinThreadPool()` 即可将服务加入到当前进程的单一线程池中。 总之,只调用 `IPCThreadState::self()->joinThreadPool()` 而不调用 `ProcessState::self()->startThreadPool()` 可能是由于 HAL 服务运行在其他进程中,或者 HAL 服务是在单线程环境中运行的,不需要启动额外的线程池。这种情况下,服务只需加入已存在的线程池即可。 ### 回答3: 在某些情况下,hal service没有调用ProcessState::self()->startThreadPool(),只调用IPCThreadState::self()->joinThreadPool(),主要是因为这个hal service不需要创建自己的线程池。 在Android系统中,HAL(Hardware Abstraction Layer)服务提供了与硬件交互的接口。通常情况下,HAL服务中会涉及到与硬件设备进行通信的操作,比如传感器、摄像头等。为了保证这些HAL服务可以并行运行,Android框架提供了多线程机制。 在HAL服务的实现中,ProcessState::self()->startThreadPool()用于创建一个线程池,并启动多个线程来并行处理来自客户端的请求。而IPCThreadState::self()->joinThreadPool()则会将当前线程加入到线程池中,并等待处理来自客户端的请求。 但是,并不是所有的HAL服务都需要自己的线程池。有些HAL服务可能只需要在调用时等待客户端的请求,而不需要并行处理。对于这种情况,就不需要调用ProcessState::self()->startThreadPool(),只需调用IPCThreadState::self()->joinThreadPool()加入到现有的线程池中即可。 总结来说,如果一个HAL服务没有调用ProcessState::self()->startThreadPool(),只调用了IPCThreadState::self()->joinThreadPool(),那说明这个HAL服务只是简单地等待处理客户端的请求,而不需要额外的线程池来进行并行处理。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值