我们知道,播放audio的时候,音频数据是从AT传送到AF的,然后AF中的audiomixer来读取PCM数据做mix
下面对这个流程做大体分析。
首先,分析一下AT和AF之间传递数据使用的内存是在哪里分配的。
AT章节里面,我们分析AudioTrack::createTrack_l函数时,有这么一段代码:
我们是不是可以这么猜想:audioFlinger->createTrack中就完成了audio buffer的分配?
那我们看一下这个函数。
继续往里跟踪。
在TrackBase的构造函数AudioFlinger::ThreadBase::TrackBase::TrackBase里面,我们可以发现:
这里实际上就是在需要的size基础上,多申请一块内存,用来存放 audio_track_cblk_t 这个头信息。
audio_track_cblk_t 是个啥呢?
audio_track_cblk_t的主要数据成员:
user -- AudioTrack当前的写位置的偏移
userBase -- AudioTrack写偏移的基准位置,结合user的值方可确定真实的FIFO地址指针
server -- AudioFlinger当前的读位置的偏移
serverBase -- AudioFlinger读偏移的基准位置,结合server的值方可确定真实的FIFO地址指针
frameCount -- FIFO的大小,以音频数据的帧为单位,16bit的音频每帧的大小是2字节
buffers -- 指向FIFO的起始地址
out -- 音频流的方向,对于AudioTrack,out=1,对于AudioRecord,out=0
audio_track_cblk_t的主要成员函数:
framesAvailable_l()和framesAvailable()用于获取FIFO中可写的空闲空间的大小,只是加锁和不加锁的区别。playback 的场景中,主要 用于AT来write
framesReady()用于获取FIFO中可读取的空间大小。playback场景中,主要用于AF来read
我们可以用下面这个图来解释这块内存的结构:
也就是说, TrackBase里面申请了一块内存,内存的前部是一个audio_track_cblk_t信息,用于指导读写位置的同步工作。内存的后部才是真正的缓冲区。
然后我们回到client->heap()->allocate(size)看一下具体是从哪里分配的内存
这里的client就是client = registerPid_l(pid)创建的。
其构造函数里面:
我们知道,AF中最多支持32个Track,
在AudioFlinger::PlaybackThread::createTrack_l函数里,
可以看到,不管AT来自什么进程空间,都会创建Track,
也就是说,这32个Track可以来自不同的进程空间的不同AT,也可以来自同一进程空间同一AT的,也可以来自同一进程空间的不同AT,
我们分析registerPid_l函数就会发现,每个进程空间都会只有一个client,一个client只会申请1M的空间,
也就是说,每个进程空间不管有多少AT ,都会共用这1M的空间。具体每个AT使用多少,由client->heap()->allocate(size)来实报实销。
而不同的进程空间之间,则是各自独立的1M空间,互不干扰。
继续往下跟踪:
这也是为什么AT和AF处于两个不同的进程空间,但是却能够共享传递数据了。
现在我们知道了AT和AF之间是用的共享内存了,那么具体运行起来的时候,是什么样子的呢?
我们从AT的write函数来分析
这样音频数据就写入了AF中的共享内存了。
下面分析一下 obtainBuffer
首先,通过调用framesAvailable函数,获得了整个buffer里面,可以用来写入的空闲空间大小。
这样,obtainBuffer中,framesAvailable_l之后,framesReq就初步预存了可用空间的值,然后又比较了framesReq和bufferEnd-u的值。
那么,bufferEnd-u又是什么呢?
在代码中,我们可以看到,bufferEnd=userBase+mFrameCount
那么我们的疑问就成了userBase+mFrameCount-u了
mFrameCount没有什么神秘的,就是整个buffer的大小而已。
那么整个公式具体代表什么意思呢?
前面我们介绍了一下audio_track_cblk_t中的几个数据变量的含义,
重点就是 user,userBase,server,serverBase 这四个变量。
需要注意的是,这四个变量的值并不是读写位置相对于buffer的起点,物理上的offset值,而是一个经过映射的虚拟值。
随着读写的进行,user,userBase,server,serverBase这四个值在不断的累加,
超过了buffer的实际的size之后,四个值会在一个虚拟的空间里继续累加,从而形成了一个环的组织形式。
其中,userBase,serverBase的累加单元就是buffer的实际的size frameCount.
user,userBase的累加单元,就是实际的读写的数量。
这个映射的关系,可以从下面图中表示出来
假设某一时刻的映射关系如下,我们有一段数据准备写入。
看完这个图,是不是明白了?
总结一下,实际上,这段buffer是按照环的形式来读写的,随着读写的继续,user和server都是在不断向后移动。
由于数据写入的时候,采用了memcpy, 而memcpy只能向一个方向单向拷贝,不可能扭回头去再继续拷贝,所以这里每次memcpy的操作,只能是针对user 指向的位置向后的那段空间。
而后面空间的终点,就是这段内存物理上的重点。映射过来,就是bufferEnd了。
那么这段空间的可用大小,就是bufferEnd-user了。也就是上图中橙色区域。
所以前面讲的,比较framesReq和bufferEnd-u的值,实际上就是为了获取到memcpy可以执行的size的大小。
现在obtainBuffer中,我们知道了memcpy可以执行的size大小,那么可以执行的目的地址怎么确定呢?
这就是mProxy->buffer(u)起到的作用了。
再乘上framesize,就得出了byte偏移量了,这样,buffer函数就可以得到user在实际data buffer中的位置了。
memcpy的目的地址也就知道了。
这样,obtainBuffer函数执行完毕后,就可以知道要写入的buffer的地址和可写入数据的大小了。
前面我们提到,user,userBase,server,serverBase这四个值在不断的累加,那么具体的累加操作是在哪里执行的呢?
这就是stepUser和stepServer函数的作用了。(这两个函数在releaseBuffer函数里调用,也就是说内存复制完毕之后,就会被调用了)
在stepUser的函数执行完毕后,整个buffer的映射关系如下:
这样,在下一次obtainBuffer操作之后,经过framesAvaliable函数计算出来的可用空间就是图中绿色区域。
发现没有?可用空间从buffer尾的橙色区域,转移到了buffer头的绿色区域,是不是实现了一个环的操作?
绿色和橙色之间的区域,就是AF尚未读取的数据区。
前面分析了AT的写操作。下面分析一下AF的读操作。
首先要解决的问题是,AF什么时候去读呢?
前面的AF章节中,我们介绍过playbackThread,没错,就是在AudioFlinger::PlaybackThread::threadLoop里面,循环的去读取的!
另外,我们重温一下obtainBuffer函数
经过binder调用,最后会调用到AF中的 AudioFlinger::PlaybackThread::Track::start, 这里实际上是把track添加到了playbackthread中,并且激活了track的状态。
然后AF就可以开始读了。
在obtainBuffer函数中,你会发现有很多lock,unlock的操作。这里主要是为了保护audio_track_cblk_t这个临界区中的变量。因为audio_track_cblk_t位于共享内存,可以被AF和AT两个进程访问,所以一定要加锁同步。
AF章节中,我们讲过,AudioFlinger::PlaybackThread::threadLoop进行audioMixer操作,
在audioMixer中,我们以process__genericNoResampling为例分析
status_t AudioFlinger::PlaybackThread::Track::getNextBuffer(
在buffer使用完毕之后,t.bufferProvider->releaseBuffer(&t.buffer)被调用,当中调用了stepServer函数,用来更新server,serverBase.
至此,AT与AF之间如何传递数据,以及数据是怎么共享的,两端如何同步的,就分析完了。
下面对这个流程做大体分析。
首先,分析一下AT和AF之间传递数据使用的内存是在哪里分配的。
AT章节里面,我们分析AudioTrack::createTrack_l函数时,有这么一段代码:
-
sp<IAudioTrack> track = audioFlinger->createTrack(streamType, //调用AF接口来在AF里面创建Track实例
-
sampleRate,
-
format == AUDIO_FORMAT_PCM_8_BIT ?
-
AUDIO_FORMAT_PCM_16_BIT : format,
-
mChannelMask,
-
frameCount,
-
&trackFlags,
-
sharedBuffer,
-
output,
-
tid,
-
&mSessionId,
-
mName,
-
mClientUid,
-
&status);
-
sp<IMemory> iMem = track->getCblk();
-
audio_track_cblk_t* cblk = static_cast< audio_track_cblk_t*>(iMem->pointer());
我们是不是可以这么猜想:audioFlinger->createTrack中就完成了audio buffer的分配?
那我们看一下这个函数。
-
sp<IAudioTrack> AudioFlinger::createTrack(...)
-
{
-
Mutex::Autolock _l(mLock);
-
PlaybackThread *thread = checkPlaybackThread_l(output); //通过前面讲过的获得的output,来获得playbackThread
-
client = registerPid_l(pid); //根据AT所在的进程PID, 来为每个AT所在进程创建一个client
-
track = thread->createTrack_l(client, streamType, sampleRate, format,
-
channelMask, frameCount, sharedBuffer, lSessionId, flags, tid, clientUid, &lStatus); //在这个playbackThread里面创建Track
-
trackHandle = new TrackHandle(track); //提供给AT的handle,是IAudioTrack形式的
-
}
继续往里跟踪。
-
AudioFlinger::PlaybackThread::createTrack_l
-
{
-
track = new Track( this, client, streamType, sampleRate, format,
-
channelMask, frameCount, sharedBuffer, sessionId, uid, *flags); //实例化一个Track
-
}
在TrackBase的构造函数AudioFlinger::ThreadBase::TrackBase::TrackBase里面,我们可以发现:
-
size_t size = sizeof( audio_track_cblk_t);
-
size_t bufferSize = (sharedBuffer == 0 ? roundup(frameCount) : frameCount) * mFrameSize;
-
if (sharedBuffer == 0) {
-
size += bufferSize;
-
}
-
mCblkMemory = client->heap()->allocate(size);
这里实际上就是在需要的size基础上,多申请一块内存,用来存放 audio_track_cblk_t 这个头信息。
audio_track_cblk_t 是个啥呢?
audio_track_cblk_t的主要数据成员:
user -- AudioTrack当前的写位置的偏移
userBase -- AudioTrack写偏移的基准位置,结合user的值方可确定真实的FIFO地址指针
server -- AudioFlinger当前的读位置的偏移
serverBase -- AudioFlinger读偏移的基准位置,结合server的值方可确定真实的FIFO地址指针
frameCount -- FIFO的大小,以音频数据的帧为单位,16bit的音频每帧的大小是2字节
buffers -- 指向FIFO的起始地址
out -- 音频流的方向,对于AudioTrack,out=1,对于AudioRecord,out=0
audio_track_cblk_t的主要成员函数:
framesAvailable_l()和framesAvailable()用于获取FIFO中可写的空闲空间的大小,只是加锁和不加锁的区别。playback 的场景中,主要 用于AT来write
framesReady()用于获取FIFO中可读取的空间大小。playback场景中,主要用于AF来read
我们可以用下面这个图来解释这块内存的结构:
也就是说, TrackBase里面申请了一块内存,内存的前部是一个audio_track_cblk_t信息,用于指导读写位置的同步工作。内存的后部才是真正的缓冲区。
然后我们回到client->heap()->allocate(size)看一下具体是从哪里分配的内存
这里的client就是client = registerPid_l(pid)创建的。
其构造函数里面:
-
AudioFlinger::Client::Client( const sp<AudioFlinger>& audioFlinger, pid_t pid)
-
: RefBase(),
-
mAudioFlinger(audioFlinger),
-
mMemoryDealer( new MemoryDealer( 1024* 1024, "AudioFlinger::Client")),
-
mPid(pid),
-
mTimedTrackCount( 0)
-
{}
我们知道,AF中最多支持32个Track,
在AudioFlinger::PlaybackThread::createTrack_l函数里,
可以看到,不管AT来自什么进程空间,都会创建Track,
也就是说,这32个Track可以来自不同的进程空间的不同AT,也可以来自同一进程空间同一AT的,也可以来自同一进程空间的不同AT,
我们分析registerPid_l函数就会发现,每个进程空间都会只有一个client,一个client只会申请1M的空间,
也就是说,每个进程空间不管有多少AT ,都会共用这1M的空间。具体每个AT使用多少,由client->heap()->allocate(size)来实报实销。
而不同的进程空间之间,则是各自独立的1M空间,互不干扰。
继续往下跟踪:
-
MemoryDealer::MemoryDealer( size_t size, const char* name)
-
: mHeap( new MemoryHeapBase(size, 0, name)),
-
mAllocator( new SimpleBestFitAllocator(size))
-
{
-
}
-
MemoryHeapBase::MemoryHeapBase( size_t size, uint32_t flags, char const * name)
-
{
-
int fd = ashmem_create_region(name == NULL ? "MemoryHeapBase" : name, size);
-
}
这也是为什么AT和AF处于两个不同的进程空间,但是却能够共享传递数据了。
现在我们知道了AT和AF之间是用的共享内存了,那么具体运行起来的时候,是什么样子的呢?
我们从AT的write函数来分析
-
ssize_t AudioTrack::write( const void* buffer, size_t userSize)
-
{
-
while (userSize >= mFrameSize) {
-
audioBuffer.frameCount = userSize / mFrameSize;
-
status_t err = obtainBuffer(&audioBuffer, &ClientProxy::kForever); //获取可用buffer
-
memcpy(audioBuffer.i8, buffer, toWrite); //写入AF
-
releaseBuffer(&audioBuffer); //释放
-
}
-
return written;
-
}
这样音频数据就写入了AF中的共享内存了。
下面分析一下 obtainBuffer
-
status_t AudioTrack::obtainBuffer(Buffer* audioBuffer, int32_t waitCount)
-
{
-
uint32_t framesReq = audioBuffer->frameCount;
-
size_t framesAvail = mProxy->framesAvailable();
-
if (framesAvail == 0) {
-
while (framesAvail == 0) {
-
if (cblk->user < cblk->loopEnd) {
-
cblk->lock.unlock();
-
result = mAudioTrack->start();
-
cblk->lock.lock();
-
}
-
}
-
}
-
if (framesReq > framesAvail) {
-
framesReq = framesAvail;
-
}
-
uint32_t u = cblk->user;
-
uint32_t bufferEnd = cblk->userBase + mFrameCount;
-
if (framesReq > bufferEnd - u) {
-
framesReq = bufferEnd - u;
-
}
-
audioBuffer->frameCount = framesReq;
-
audioBuffer->size = framesReq * mFrameSizeAF;
-
audioBuffer->raw = mProxy->buffer(u);
-
active = mActive;
-
return active ? status_t(NO_ERROR) : status_t(STOPPED);
-
}
首先,通过调用framesAvailable函数,获得了整个buffer里面,可以用来写入的空闲空间大小。
-
uint32_t audio_track_cblk_t::framesAvailable_l()
-
{
-
uint32_t u = this->user;
-
uint32_t s = this->server;
-
if (out) {
-
uint32_t limit = (s < loopStart) ? s : loopStart;
-
return limit + frameCount - u; // 实际上就是 frameCount - (u-s)
-
} else {
-
return frameCount + u - s;
-
}
-
}
这样,obtainBuffer中,framesAvailable_l之后,framesReq就初步预存了可用空间的值,然后又比较了framesReq和bufferEnd-u的值。
那么,bufferEnd-u又是什么呢?
在代码中,我们可以看到,bufferEnd=userBase+mFrameCount
那么我们的疑问就成了userBase+mFrameCount-u了
mFrameCount没有什么神秘的,就是整个buffer的大小而已。
那么整个公式具体代表什么意思呢?
前面我们介绍了一下audio_track_cblk_t中的几个数据变量的含义,
重点就是 user,userBase,server,serverBase 这四个变量。
需要注意的是,这四个变量的值并不是读写位置相对于buffer的起点,物理上的offset值,而是一个经过映射的虚拟值。
随着读写的进行,user,userBase,server,serverBase这四个值在不断的累加,
超过了buffer的实际的size之后,四个值会在一个虚拟的空间里继续累加,从而形成了一个环的组织形式。
其中,userBase,serverBase的累加单元就是buffer的实际的size frameCount.
user,userBase的累加单元,就是实际的读写的数量。
这个映射的关系,可以从下面图中表示出来
假设某一时刻的映射关系如下,我们有一段数据准备写入。
看完这个图,是不是明白了?
总结一下,实际上,这段buffer是按照环的形式来读写的,随着读写的继续,user和server都是在不断向后移动。
由于数据写入的时候,采用了memcpy, 而memcpy只能向一个方向单向拷贝,不可能扭回头去再继续拷贝,所以这里每次memcpy的操作,只能是针对user 指向的位置向后的那段空间。
而后面空间的终点,就是这段内存物理上的重点。映射过来,就是bufferEnd了。
那么这段空间的可用大小,就是bufferEnd-user了。也就是上图中橙色区域。
所以前面讲的,比较framesReq和bufferEnd-u的值,实际上就是为了获取到memcpy可以执行的size的大小。
现在obtainBuffer中,我们知道了memcpy可以执行的size大小,那么可以执行的目的地址怎么确定呢?
这就是mProxy->buffer(u)起到的作用了。
-
void* audio_track_cblk_t::buffer( void *buffers, size_t frameSize, uint32_t offset) const
-
{
-
return ( int8_t *)buffers + (offset - userBase) * frameSize;
-
}
再乘上framesize,就得出了byte偏移量了,这样,buffer函数就可以得到user在实际data buffer中的位置了。
memcpy的目的地址也就知道了。
这样,obtainBuffer函数执行完毕后,就可以知道要写入的buffer的地址和可写入数据的大小了。
前面我们提到,user,userBase,server,serverBase这四个值在不断的累加,那么具体的累加操作是在哪里执行的呢?
这就是stepUser和stepServer函数的作用了。(这两个函数在releaseBuffer函数里调用,也就是说内存复制完毕之后,就会被调用了)
-
uint32_t audio_track_cblk_t::stepUser( size_t stepCount, size_t frameCount, bool isOut)
-
{
-
uint32_t u = user;
-
u += stepCount;
-
if (isOut) {
-
if (bufferTimeoutMs == MAX_STARTUP_TIMEOUT_MS -1) {
-
bufferTimeoutMs = MAX_RUN_TIMEOUT_MS;
-
}
-
} else if (u > server) {
-
u = server;
-
}
-
if (u >= frameCount) {
-
if (u - frameCount >= userBase ) {
-
userBase += frameCount;
-
}
-
} else if (u >= userBase + frameCount) {
-
userBase += frameCount;
-
}
-
user = u;
-
return u;
-
}
-
bool audio_track_cblk_t::stepServer( size_t stepCount, size_t frameCount, bool isOut)
-
{
-
uint32_t s = server;
-
bool flushed = (s == user);
-
s += stepCount;
-
if (isOut) {
-
if (flushed) {
-
s = user;
-
}
-
}
-
if (s >= loopEnd) {
-
s = loopStart;
-
if (--loopCount == 0) {
-
loopEnd = UINT_MAX;
-
loopStart = UINT_MAX;
-
}
-
}
-
if (s >= frameCount) {
-
if (s - frameCount >= serverBase ) {
-
serverBase += frameCount;
-
}
-
} else if (s >= serverBase + frameCount) {
-
serverBase += frameCount;
-
}
-
server = s;
-
return true;
-
}
在stepUser的函数执行完毕后,整个buffer的映射关系如下:
这样,在下一次obtainBuffer操作之后,经过framesAvaliable函数计算出来的可用空间就是图中绿色区域。
发现没有?可用空间从buffer尾的橙色区域,转移到了buffer头的绿色区域,是不是实现了一个环的操作?
绿色和橙色之间的区域,就是AF尚未读取的数据区。
前面分析了AT的写操作。下面分析一下AF的读操作。
首先要解决的问题是,AF什么时候去读呢?
前面的AF章节中,我们介绍过playbackThread,没错,就是在AudioFlinger::PlaybackThread::threadLoop里面,循环的去读取的!
另外,我们重温一下obtainBuffer函数
-
status_t AudioTrack::obtainBuffer(Buffer* audioBuffer, int32_t waitCount)
-
{
-
if (framesAvail == 0) {
-
while (framesAvail == 0) {
-
if (cblk->user < cblk->loopEnd) {
-
cblk->lock.unlock();
-
result = mAudioTrack->start();
-
cblk->lock.lock();
-
}
-
}
-
}
-
........
-
}
经过binder调用,最后会调用到AF中的 AudioFlinger::PlaybackThread::Track::start, 这里实际上是把track添加到了playbackthread中,并且激活了track的状态。
然后AF就可以开始读了。
在obtainBuffer函数中,你会发现有很多lock,unlock的操作。这里主要是为了保护audio_track_cblk_t这个临界区中的变量。因为audio_track_cblk_t位于共享内存,可以被AF和AT两个进程访问,所以一定要加锁同步。
AF章节中,我们讲过,AudioFlinger::PlaybackThread::threadLoop进行audioMixer操作,
在audioMixer中,我们以process__genericNoResampling为例分析
-
void AudioMixer::process__genericNoResampling( state_t* state, int64_t pts)
-
{
-
uint32_t enabledTracks = state->enabledTracks;
-
uint32_t e0 = enabledTracks;
-
while (e0) {
-
const int i = 31 - __builtin_clz(e0);
-
e0 &= ~( 1<<i);
-
track_t& t = state->tracks[i];
-
t.buffer.frameCount = state->frameCount;
-
t.bufferProvider->getNextBuffer(&t.buffer, pts); //获取databuffer
-
t.frameCount = t.buffer.frameCount;
-
t.in = t.buffer.raw;
-
if (t.in == NULL)
-
enabledTracks &= ~( 1<<i);
-
}
-
......
-
e0 = enabledTracks;
-
while (e0) {
-
const int i = 31 - __builtin_clz(e0);
-
e0 &= ~( 1<<i);
-
track_t& t = state->tracks[i];
-
t.bufferProvider->releaseBuffer(&t.buffer); //释放buffer,当中调用了stepServer函数
-
}
status_t AudioFlinger::PlaybackThread::Track::getNextBuffer(
-
AudioBufferProvider::Buffer* buffer, int64_t pts)
-
{
-
audio_track_cblk_t* cblk = this->cblk();
-
uint32_t framesReady;
-
uint32_t framesReq = buffer->frameCount;
-
framesReady = mServerProxy->framesReady();
-
if (CC_LIKELY(framesReady)) {
-
uint32_t s = cblk->server;
-
uint32_t bufferEnd = cblk->serverBase + mFrameCount;
-
bufferEnd = (cblk->loopEnd < bufferEnd) ? cblk->loopEnd : bufferEnd;
-
if (framesReq > framesReady) {
-
framesReq = framesReady;
-
}
-
if (framesReq > bufferEnd - s) {
-
framesReq = bufferEnd - s;
-
}
-
buffer->raw = getBuffer(s, framesReq);
-
buffer->frameCount = framesReq;
-
return NO_ERROR;
-
}
-
getNextBuffer_exit:
-
buffer->raw = NULL;
-
buffer->frameCount = 0;
-
return NOT_ENOUGH_DATA;
-
}
在buffer使用完毕之后,t.bufferProvider->releaseBuffer(&t.buffer)被调用,当中调用了stepServer函数,用来更新server,serverBase.
至此,AT与AF之间如何传递数据,以及数据是怎么共享的,两端如何同步的,就分析完了。