本文重点分析一个视频播放过程中,是如何将将音频数据通知给AudioFlinger的,关于AudioFlinger的流程请大家参考相关文档,它就是专门处理音频流的.本文不做分析.
我在博客文章http://blog.csdn.net/zhanxiaoqi/article/details/65446909 中已经描述了播放视频之前必须要调用setDataSource()来设置数据源,以及它的执行流程,
我们再看下面一段代码的分析,因为后面的分析会用到.
status_t MediaPlayerService::Client::setDataSource(
const char *url, const KeyedVector<String8, String8> *headers) {
player_type playerType = MediaPlayerFactory::getPlayerType(this, url);
sp<MediaPlayerBase> p = setDataSource_pre(playerType);
}
sp<MediaPlayerBase> MediaPlayerService::Client::setDataSource_pre(
player_type playerType)
{
ALOGV("player type = %d", playerType);
// create the right type of player
sp<MediaPlayerBase> p = createPlayer(playerType);
if (p == NULL) {
return p;
}
if (!p->hardwareOutput()) {
mAudioOutput = new AudioOutput(mAudioSessionId, IPCThreadState::self()->getCallingUid());
static_cast<MediaPlayerInterface*>(p.get())->setAudioSink(mAudioOutput);
}
return p;
}
注意上面红色字体表示的语句,其中p就是我们创建的具体播放器类型,播放器的创建过程,参考我的博客文章http://blog.csdn.net/zhanxiaoqi/article/details/65446909
假设此处创建的是StagefrightPlayer,它的构造函数如下(其它播放器类型处理流程类似,感兴趣的读者可自行分析)
StagefrightPlayer::StagefrightPlayer()
: mPlayer(new AwesomePlayer) {
ALOGV("StagefrightPlayer");
mPlayer->setListener(this);
}
也就是说StagefrightPlayer类中mPlayer成员实际指向一个