在WebRTC的音频模块有三个比较重要的模块,ADM、APM和AudioState,其中ADM是audio device model 也就是负责处理音频采集和播放数据的模块,APM是Audio Processing model ,AudioState主要是为了处理多个call实例共享音频的状态;这个几个模块的初始化及处理都是在
WebRtcVoiceEngine中处理;
对于参数的初始化部分见文章: WebRTC系列-APM参数设置及AudioOption
;这篇文章虽然是主要介绍apm的初始化,对于adm等的初始化流程基本相似;
1. adm和apm
1.1 adm类关系简介
WebRTC中提供了对iOS和Android的adm相关接口的封装,其中iOS端的ADM主要类关系如下图:

其中AudioDeviceModule是WebRTC对外提供的adm统一接口类&#
本文深入探讨WebRTC在iOS上的音频处理,包括ADM(Audio Device Module)和APM(Audio Processing Module)的类关系、创建过程,以及AudioState的角色和主要作用,阐述它们如何协同工作以实现音频采集、播放和处理。
订阅专栏 解锁全文

722

被折叠的 条评论
为什么被折叠?



