Webrtc 音频捕获
Webrtc 音频捕获的流程
VoiceEngine* voe = VoiceEngine::Create();//创建VoiceEngine object
VoEFile* file = VoEFile::GetInterface(voe);
m_file->StartRecordingMicrophone(&m_outstream);//开始捕获pcm流
get_audio_data();//从OutStream中取出音频数据
file->StopPlayingFileAsMicrophone(ch);//停止麦克风
file->Release();
VoiceEngine::Delete(voe);
继承OutStream这个类
class my_outstream : public OutStream
{
public:
bool Write(const void *buf,int len);//麦克风捕获的数据写入buf
ms_mutex_t webrtc_capture_audio_mutex;
queue_t webrtc_capture_audio_queue;//音频数据队列
};
重新写一下Write函数,把每次得到的音频数据写入到webrtc_capture_audio_queue这个队列中,再写一个取音频数据的接口get_audio_data();每次从webrtc_capture_audio_queue队列中取数据就行了。
我得到的音频数据信息:
Samplerate:16000HZ
Channel:1
Frametype:pcm
我现在想知道webrtc 如何设置,捕获音频数据的采样率,频道等一些值,知道的牛人告诉我一下呀。

本文介绍了如何使用WebRTC进行音频捕获,包括创建VoiceEngine对象、开始录音、从OutStream获取音频数据以及停止播放。同时,讨论了自定义OutStream类来存储音频数据,并提及了音频数据的基本信息,如16000Hz的采样率和单声道。作者寻求关于如何配置WebRTC以捕获特定采样率和通道数的指导。
最低0.47元/天 解锁文章
2098

被折叠的 条评论
为什么被折叠?



