Android智能手机中各种音频场景下的audio data path

版权声明:本文为博主原创文章,遵循 CC 4.0 by-sa 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/david_tym/article/details/80931874

上一篇文章(Android智能手机上的音频浅析)说本篇将详细讲解Android智能手机中各种音频场景下的音频数据流向,现在我们就开始。智能手机中音频的主要场景有音频播放、音频录制、语音通信等。不同场景下的音频数据流向有很大差异,即使是同一场景,在不同的模式下音频数据流向也有所不同。

 

1,音频播放

Android系统audio框架中主要有三种播放模式:low latency playback、deep buffer playback和compressed offload playback。

a)low latency playback:用于按键音、游戏背景音等对时延要求高的声音输出。音频文件是在AP侧解码成PCM数据,然后再经由Audio DSP送给codec芯片播放出来。

b)deep buffer playback:用于音乐等对时延要求不高的声音输出。音频文件是在AP侧解码成PCM数据,如果有音效的话会再对PCM数据处理(android audio framework中有effect音效模块,支持的音效有均衡器、低音增强、环绕声等),然后再经由Audio DSP送给codec芯片播放出来。

c)compressed offload playback:用于音乐等声音输出,但是音频解码部分的工作是在Audio DSP中完成,AP侧只负责把音频码流送到Audo DSP中,送出去后AP侧会进行休眠,Audo DSP中会分配一块较大的buffer去处理此数据,在Audo DSP中进行解码、音效的处理等工作,在Audo DSP解码器处理完数据之前,它会唤醒AP侧去送下一包数据。用这种模式播放音频能有效的降低功耗,是最为推荐的播放音乐的模式。但是在目前的主流的音乐播放APP中用的基本上都是deep buffer的播放模式,比如QQ音乐、网易云音乐和酷狗音乐等。看来系统平台厂商和APP厂商的做法是有差异的。至于哪些格式的音乐用这种模式播放,这需要在audioPolicy中去控制,我做的平台上是MP3(*.mp3)和AAC(*.m4a)用offload模式播放,因为这两种格式最主流。

 

综上low latency 模式和deep buffer模式都是在AP侧解码完后送PCM数据给Audio DSP,故音频数据流向类似,我将放在一起讲,而compressed offload模式是码流送给Audio DSP解码。播放系统音和游戏音用low latency 模式,播放音乐用deep buffer或者compressed offload模式,播放录音用deep buffer模式。接下来我们看看low latency /deep buffer和compressed offload两种模式下的音频数据流向。在音频播放时音频数据只经过AP和audio DSP。

 

1)low latency / deep buffer模式下的音频数据流向

从上图看出,音频文件先在AP上软解码得到PCM后经过AudioTrack/audioFlinger中的Mixer thread(有可能要做音效后处理)/audio HAL/tinyALSA后送给kernel,然后用IPC将PCM送给Audio DSP经重采样混音等后播放出来。由于在AP上已做解码和音效后处理,Audio DSP上就不需要做了。

 

2)compressed offload模式下的音频数据流向

从上图看出,音频码流经过AP上的AudioTrack/audioFlinger中的Offload thread(不需要做音效后处理)/audio HAL/tinyALSA后送给kernel,然后用IPC将码流送给Audio DSP经解码、后处理、重采样、混音等后播放出来。

 

2,音频录制

很多人喜欢把参加的重要会议或者演讲的音频录下来,以便重复听或者他用。下图就是录音时音频数据的流向。同音频播放一样,录音时音频数据也是只经过AP和audio DSP。

从上图看出,codec芯片采集到的PCM数据送给Audio DSP经重采样、前处理后送给AP的kernel,再经由tinyALSA/audio HAL /audioFlinger中的Record thread/audioRecord等后做软编码得到录音码流文件并保持起来。

 

3,语音通信

语音通信就是打电话啦。它同音频播放或者录制不一样,它是双向的,分上行(uplink,把采集到的语音发送给对方)和下行(downlink,把收到的语音播放出来),而音频播放或者录制是单向的。它音频数据流向也跟音频播放或者录制不一样,只经过audio DSP和CP,下图就是打电话时音频数据的流向。

从上图看出,在上行方向上codec芯片采集到的PCM数据送给Audio DSP经重采样、前处理(AEC/ANS/AGC等)、编码后得到码流,并将码流送给CP,CP处理后经过空口(air interface)送给对方。在下行方向上先从空口收对方送过来的语音数据,并做网络侧处理(jitter buffer等),然后送给Audio DSP,Audio DSP收到后做解码、后处理(ANS/AGC等)、重采样等,再把PCM数据经DMA/I2S送给codec芯片播放出来。
---------------------
版权声明:本文为CSDN博主「david_tym」的原创文章,遵循CC 4.0 by-sa版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/david_tym/article/details/80931874

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值