android audio buffer 分析

我们知道,播放audio的时候,音频数据是从AT传送到AF的,然后AF中的audiomixer来读取PCM数据做mix
下面对这个流程做大体分析。
首先,分析一下AT和AF之间传递数据使用的内存是在哪里分配的。
AT章节里面,我们分析AudioTrack::createTrack_l函数时,有这么一段代码:
  1. sp<IAudioTrack> track = audioFlinger->createTrack(streamType, //调用AF接口来在AF里面创建Track实例
  2. sampleRate,
  3. format == AUDIO_FORMAT_PCM_8_BIT ?
  4. AUDIO_FORMAT_PCM_16_BIT : format,
  5. mChannelMask,
  6. frameCount,
  7. &trackFlags,
  8. sharedBuffer,
  9. output,
  10. tid,
  11. &mSessionId,
  12. mName,
  13. mClientUid,
  14. &status);
  15. sp<IMemory> iMem = track->getCblk();
  16. audio_track_cblk_t* cblk = static_cast< audio_track_cblk_t*>(iMem->pointer());
AT章节里,我们交代过,   cblk实际上就是指向了audio buffer.
我们是不是可以这么猜想:audioFlinger->createTrack中就完成了audio buffer的分配?
那我们看一下这个函数。
  1. sp<IAudioTrack> AudioFlinger::createTrack(...)
  2. {
  3. Mutex::Autolock _l(mLock);
  4. PlaybackThread *thread = checkPlaybackThread_l(output); //通过前面讲过的获得的output,来获得playbackThread
  5. client = registerPid_l(pid); //根据AT所在的进程PID, 来为每个AT所在进程创建一个client
  6. track = thread->createTrack_l(client, streamType, sampleRate, format,
  7. channelMask, frameCount, sharedBuffer, lSessionId, flags, tid, clientUid, &lStatus); //在这个playbackThread里面创建Track
  8. trackHandle = new TrackHandle(track); //提供给AT的handle,是IAudioTrack形式的
  9. }
这个函数里面最重要的一步就是track = thread->createTrack_l, 为每个AT在AF里面找到对应的PlaybackThread, 然后在playbackThread里面创建了Track.
继续往里跟踪。
  1. AudioFlinger::PlaybackThread::createTrack_l
  2. {
  3. track = new Track( this, client, streamType, sampleRate, format,
  4. channelMask, frameCount, sharedBuffer, sessionId, uid, *flags); //实例化一个Track
  5. }
Track这个类,实际上继承了TrackBase这个类。
在TrackBase的构造函数AudioFlinger::ThreadBase::TrackBase::TrackBase里面,我们可以发现:
  1. size_t size = sizeof( audio_track_cblk_t);
  2. size_t bufferSize = (sharedBuffer == 0 ? roundup(frameCount) : frameCount) * mFrameSize;
  3. if (sharedBuffer == 0) {
  4. size += bufferSize;
  5. }
  6. mCblkMemory = client->heap()->allocate(size);
看到了吗?这里就是申请audio buffer的地方,并且申请的长度是 sizeof(audio_track_cblk_t)+bufferSize
这里实际上就是在需要的size基础上,多申请一块内存,用来存放   audio_track_cblk_t 这个头信息。
audio_track_cblk_t  是个啥呢?
audio_track_cblk_t的主要数据成员:
    user             -- AudioTrack当前的写位置的偏移
    userBase         -- AudioTrack写偏移的基准位置,结合user的值方可确定真实的FIFO地址指针
    server           -- AudioFlinger当前的读位置的偏移
    serverBase       -- AudioFlinger读偏移的基准位置,结合server的值方可确定真实的FIFO地址指针
    frameCount       -- FIFO的大小,以音频数据的帧为单位,16bit的音频每帧的大小是2字节
    buffers          -- 指向FIFO的起始地址
    out              -- 音频流的方向,对于AudioTrack,out=1,对于AudioRecord,out=0
audio_track_cblk_t的主要成员函数:
framesAvailable_l()和framesAvailable()用于获取FIFO中可写的空闲空间的大小,只是加锁和不加锁的区别。playback 的场景中,主要 用于AT来write
framesReady()用于获取FIFO中可读取的空间大小。playback场景中,主要用于AF来read

我们可以用下面这个图来解释这块内存的结构:



也就是说,   TrackBase里面申请了一块内存,内存的前部是一个audio_track_cblk_t信息,用于指导读写位置的同步工作。内存的后部才是真正的缓冲区。

然后我们回到client->heap()->allocate(size)看一下具体是从哪里分配的内存
这里的client就是client = registerPid_l(pid)创建的。
其构造函数里面:
  1. AudioFlinger::Client::Client( const sp<AudioFlinger>& audioFlinger, pid_t pid)
  2. : RefBase(),
  3. mAudioFlinger(audioFlinger),
  4. mMemoryDealer( new MemoryDealer( 1024* 1024, "AudioFlinger::Client")),
  5. mPid(pid),
  6. mTimedTrackCount( 0)
  7. {}
可以看到,这里申请了1M bytes的空间。
我们知道,AF中最多支持32个Track,
在AudioFlinger::PlaybackThread::createTrack_l函数里,
可以看到,不管AT来自什么进程空间,都会创建Track,
也就是说,这32个Track可以来自不同的进程空间的不同AT,也可以来自同一进程空间同一AT的,也可以来自同一进程空间的不同AT,
我们分析registerPid_l函数就会发现,每个进程空间都会只有一个client,一个client只会申请1M的空间,
也就是说,每个进程空间不管有多少AT ,都会共用这1M的空间。具体每个AT使用多少,由client->heap()->allocate(size)来实报实销。
而不同的进程空间之间,则是各自独立的1M空间,互不干扰。

继续往下跟踪:
  1. MemoryDealer::MemoryDealer( size_t size, const char* name)
  2. : mHeap( new MemoryHeapBase(size, 0, name)),
  3. mAllocator( new SimpleBestFitAllocator(size))
  4. {
  5. }
  6. MemoryHeapBase::MemoryHeapBase( size_t size, uint32_t flags, char const * name)
  7. {
  8. int fd = ashmem_create_region(name == NULL ? "MemoryHeapBase" : name, size);
  9. }
看到了吗?这1M的空间是使用了android的ashmem匿名共享内存机制来分配的。
这也是为什么AT和AF处于两个不同的进程空间,但是却能够共享传递数据了。

现在我们知道了AT和AF之间是用的共享内存了,那么具体运行起来的时候,是什么样子的呢?

我们从AT的write函数来分析
  1. ssize_t AudioTrack::write( const void* buffer, size_t userSize)
  2. {
  3. while (userSize >= mFrameSize) {
  4. audioBuffer.frameCount = userSize / mFrameSize;
  5. status_t err = obtainBuffer(&audioBuffer, &ClientProxy::kForever); //获取可用buffer
  6. memcpy(audioBuffer.i8, buffer, toWrite); //写入AF
  7. releaseBuffer(&audioBuffer); //释放
  8. }
  9. return written;
  10. }
对其简化后,可以知道AT通过obtainBuffer来获取可用空间。然后进行memcpy。最后释放这段空间。
这样音频数据就写入了AF中的共享内存了。

下面分析一下   obtainBuffer
  1. status_t AudioTrack::obtainBuffer(Buffer* audioBuffer, int32_t waitCount)
  2. {
  3. uint32_t framesReq = audioBuffer->frameCount;
  4. size_t framesAvail = mProxy->framesAvailable();
  5. if (framesAvail == 0) {
  6. while (framesAvail == 0) {
  7. if (cblk->user < cblk->loopEnd) {
  8. cblk->lock.unlock();
  9. result = mAudioTrack->start();
  10. cblk->lock.lock();
  11. }
  12. }
  13. }
  14. if (framesReq > framesAvail) {
  15. framesReq = framesAvail;
  16. }
  17. uint32_t u = cblk->user;
  18. uint32_t bufferEnd = cblk->userBase + mFrameCount;
  19. if (framesReq > bufferEnd - u) {
  20. framesReq = bufferEnd - u;
  21. }
  22. audioBuffer->frameCount = framesReq;
  23. audioBuffer->size = framesReq * mFrameSizeAF;
  24. audioBuffer->raw = mProxy->buffer(u);
  25. active = mActive;
  26. return active ? status_t(NO_ERROR) : status_t(STOPPED);
  27. }
可以看到,这个函数最重要的工作就是确定了framesReq这个变量的值   ,以及通过buffer函数确定了真正的buffer的起始地址

首先,通过调用framesAvailable函数,获得了整个buffer里面,可以用来写入的空闲空间大小。
  1. uint32_t audio_track_cblk_t::framesAvailable_l()
  2. {
  3. uint32_t u = this->user;
  4. uint32_t s = this->server;
  5. if (out) {
  6. uint32_t limit = (s < loopStart) ? s : loopStart;
  7. return limit + frameCount - u; // 实际上就是 frameCount - (u-s)
  8. } else {
  9. return frameCount + u - s;
  10. }
  11. }
可以知道,u-s 实际上就是buffer中,还没有被读取完的数据,frameCount-(u-s)实际上就是两侧可以使用的空间
这样,obtainBuffer中,framesAvailable_l之后,framesReq就初步预存了可用空间的值,然后又比较了framesReq和bufferEnd-u的值。
那么,bufferEnd-u又是什么呢?
在代码中,我们可以看到,bufferEnd=userBase+mFrameCount
那么我们的疑问就成了userBase+mFrameCount-u了
mFrameCount没有什么神秘的,就是整个buffer的大小而已。
那么整个公式具体代表什么意思呢?

前面我们介绍了一下audio_track_cblk_t中的几个数据变量的含义,
重点就是    user,userBase,server,serverBase 这四个变量。
需要注意的是,这四个变量的值并不是读写位置相对于buffer的起点,物理上的offset值,而是一个经过映射的虚拟值。
随着读写的进行,user,userBase,server,serverBase这四个值在不断的累加,
超过了buffer的实际的size之后,四个值会在一个虚拟的空间里继续累加,从而形成了一个环的组织形式。
其中,userBase,serverBase的累加单元就是buffer的实际的size frameCount.
user,userBase的累加单元,就是实际的读写的数量。


这个映射的关系,可以从下面图中表示出来

假设某一时刻的映射关系如下,我们有一段数据准备写入。



看完这个图,是不是明白了?

总结一下,实际上,这段buffer是按照环的形式来读写的,随着读写的继续,user和server都是在不断向后移动。
由于数据写入的时候,采用了memcpy, 而memcpy只能向一个方向单向拷贝,不可能扭回头去再继续拷贝,所以这里每次memcpy的操作,只能是针对user 指向的位置向后的那段空间。
而后面空间的终点,就是这段内存物理上的重点。映射过来,就是bufferEnd了。
那么这段空间的可用大小,就是bufferEnd-user了。也就是上图中橙色区域。
所以前面讲的,比较framesReq和bufferEnd-u的值,实际上就是为了获取到memcpy可以执行的size的大小。

现在obtainBuffer中,我们知道了memcpy可以执行的size大小,那么可以执行的目的地址怎么确定呢?
这就是mProxy->buffer(u)起到的作用了。
  1. void* audio_track_cblk_t::buffer( void *buffers, size_t frameSize, uint32_t offset) const
  2. {
  3. return ( int8_t *)buffers + (offset - userBase) * frameSize;
  4. }
代码中,buffers指向的是实际data buffer的指针,(offset-userBase)实际上就是(user-userBase),也就是user在实际data buffer中相对data buffer头部的偏移量,当然,这个偏移量是以帧为单位的。
再乘上framesize,就得出了byte偏移量了,这样,buffer函数就可以得到user在实际data buffer中的位置了。
memcpy的目的地址也就知道了。
这样,obtainBuffer函数执行完毕后,就可以知道要写入的buffer的地址和可写入数据的大小了。

前面我们提到,user,userBase,server,serverBase这四个值在不断的累加,那么具体的累加操作是在哪里执行的呢?
这就是stepUser和stepServer函数的作用了。(这两个函数在releaseBuffer函数里调用,也就是说内存复制完毕之后,就会被调用了)
  1. uint32_t audio_track_cblk_t::stepUser( size_t stepCount, size_t frameCount, bool isOut)
  2. {
  3. uint32_t u = user;
  4. u += stepCount;
  5. if (isOut) {
  6. if (bufferTimeoutMs == MAX_STARTUP_TIMEOUT_MS -1) {
  7. bufferTimeoutMs = MAX_RUN_TIMEOUT_MS;
  8. }
  9. } else if (u > server) {
  10. u = server;
  11. }
  12. if (u >= frameCount) {
  13. if (u - frameCount >= userBase ) {
  14. userBase += frameCount;
  15. }
  16. } else if (u >= userBase + frameCount) {
  17. userBase += frameCount;
  18. }
  19. user = u;
  20. return u;
  21. }
  1. bool audio_track_cblk_t::stepServer( size_t stepCount, size_t frameCount, bool isOut)
  2. {
  3. uint32_t s = server;
  4. bool flushed = (s == user);
  5. s += stepCount;
  6. if (isOut) {
  7. if (flushed) {
  8. s = user;
  9. }
  10. }
  11. if (s >= loopEnd) {
  12. s = loopStart;
  13. if (--loopCount == 0) {
  14. loopEnd = UINT_MAX;
  15. loopStart = UINT_MAX;
  16. }
  17. }
  18. if (s >= frameCount) {
  19. if (s - frameCount >= serverBase ) {
  20. serverBase += frameCount;
  21. }
  22. } else if (s >= serverBase + frameCount) {
  23. serverBase += frameCount;
  24. }
  25. server = s;
  26. return true;
  27. }
从这两个函数中可以看到,对user,server累加了实际的读写数值,对userBase,serverBase累加了buffer的实际长度frameCount.
在stepUser的函数执行完毕后,整个buffer的映射关系如下:


这样,在下一次obtainBuffer操作之后,经过framesAvaliable函数计算出来的可用空间就是图中绿色区域。
发现没有?可用空间从buffer尾的橙色区域,转移到了buffer头的绿色区域,是不是实现了一个环的操作?
绿色和橙色之间的区域,就是AF尚未读取的数据区。

前面分析了AT的写操作。下面分析一下AF的读操作。
首先要解决的问题是,AF什么时候去读呢?
前面的AF章节中,我们介绍过playbackThread,没错,就是在AudioFlinger::PlaybackThread::threadLoop里面,循环的去读取的!
另外,我们重温一下obtainBuffer函数
  1. status_t AudioTrack::obtainBuffer(Buffer* audioBuffer, int32_t waitCount)
  2. {
  3. if (framesAvail == 0) {
  4. while (framesAvail == 0) {
  5. if (cblk->user < cblk->loopEnd) {
  6. cblk->lock.unlock();
  7. result = mAudioTrack->start();
  8. cblk->lock.lock();
  9. }
  10. }
  11. }
  12. ........
  13. }
看见了吗?当发现framesAvalil为0,即没有空间可以写的时候,说明AF那端停了,或者压根没启动,所以这里会循环等待,并且会触发mAudioTrack->start函数
经过binder调用,最后会调用到AF中的 AudioFlinger::PlaybackThread::Track::start, 这里实际上是把track添加到了playbackthread中,并且激活了track的状态。
然后AF就可以开始读了。
在obtainBuffer函数中,你会发现有很多lock,unlock的操作。这里主要是为了保护audio_track_cblk_t这个临界区中的变量。因为audio_track_cblk_t位于共享内存,可以被AF和AT两个进程访问,所以一定要加锁同步。
AF章节中,我们讲过,AudioFlinger::PlaybackThread::threadLoop进行audioMixer操作,
在audioMixer中,我们以process__genericNoResampling为例分析
  1. void AudioMixer::process__genericNoResampling( state_t* state, int64_t pts)
  2. {
  3. uint32_t enabledTracks = state->enabledTracks;
  4. uint32_t e0 = enabledTracks;
  5. while (e0) {
  6. const int i = 31 - __builtin_clz(e0);
  7. e0 &= ~( 1<<i);
  8. track_t& t = state->tracks[i];
  9. t.buffer.frameCount = state->frameCount;
  10. t.bufferProvider->getNextBuffer(&t.buffer, pts); //获取databuffer
  11. t.frameCount = t.buffer.frameCount;
  12. t.in = t.buffer.raw;
  13. if (t.in == NULL)
  14. enabledTracks &= ~( 1<<i);
  15. }
  16. ......
  17. e0 = enabledTracks;
  18. while (e0) {
  19. const int i = 31 - __builtin_clz(e0);
  20. e0 &= ~( 1<<i);
  21. track_t& t = state->tracks[i];
  22. t.bufferProvider->releaseBuffer(&t.buffer); //释放buffer,当中调用了stepServer函数
  23. }
可以看到实际上是getNextBuffer这个函数在从buffer中取数据
status_t AudioFlinger::PlaybackThread::Track::getNextBuffer(
  1. AudioBufferProvider::Buffer* buffer, int64_t pts)
  2. {
  3. audio_track_cblk_t* cblk = this->cblk();
  4. uint32_t framesReady;
  5. uint32_t framesReq = buffer->frameCount;
  6. framesReady = mServerProxy->framesReady();
  7. if (CC_LIKELY(framesReady)) {
  8. uint32_t s = cblk->server;
  9. uint32_t bufferEnd = cblk->serverBase + mFrameCount;
  10. bufferEnd = (cblk->loopEnd < bufferEnd) ? cblk->loopEnd : bufferEnd;
  11. if (framesReq > framesReady) {
  12. framesReq = framesReady;
  13. }
  14. if (framesReq > bufferEnd - s) {
  15. framesReq = bufferEnd - s;
  16. }
  17. buffer->raw = getBuffer(s, framesReq);
  18. buffer->frameCount = framesReq;
  19. return NO_ERROR;
  20. }
  21. getNextBuffer_exit:
  22. buffer->raw = NULL;
  23. buffer->frameCount = 0;
  24. return NOT_ENOUGH_DATA;
  25. }
这里实际上是和obtainBuffer类似的操作。只不过从写buffer,变成了读buffer,从framesAvailable变成了framesReady , 这里就不多讲了。
在buffer使用完毕之后,t.bufferProvider->releaseBuffer(&t.buffer)被调用,当中调用了stepServer函数,用来更新server,serverBase.

至此,AT与AF之间如何传递数据,以及数据是怎么共享的,两端如何同步的,就分析完了。
  • 3
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值