因为项目需要做一个语音对讲功能,其实说白了就是类似QQ的语音通话,但是资料少之又少,研究了好久,才跟同事弄出一个粗略的版本。我记性不好,所以来记录一下,也希望能够帮助其他人。
本来以为是要做语音对讲,类似微信的发送语音,我觉得这个还挺简单的,就是发送一个语音的文件,所以一开始用的是AVAudioPlayer,因为这个东西只能播放本地音频,而且非常简单。可是都快做好了,头头才说明白要的是语音通话。(小公司,别说文档了,连接口文档都没有)
后来找到AudioQueue,找了好多demo和资料,都没有直接播放从服务器端接收到的数据的例子,后来没办法,只能自己想办法咯。不过大致过程是一致的。
首先肯定是设置创建录音的音频队列,以及缓冲区,还有播放的队列和播放缓冲区,因为我们是要一起打开,所以一起创建,开始录音,并播放声音。
后面会上传demo,开始对讲的方法如下:
- //开始对讲
- - (IBAction)startIntercom:(id)sender {
- //让udpSocket 开始接收数据
- [self.udpSocket beginReceiving:nil];
- //先把接收数组清空
- if (receiveData) {
- receiveData = nil;
- }
- receiveData = [[NSMutableArray alloc] init];
- if (_recordAmrCode == nil) {
- _recordAmrCode = [[RecordAmrCode alloc] init];
- }
- //设置录音的参数
- [self setupAudioFormat:kAudioFormatLinearPCM SampleRate:kDefaultSampleRate];
- _audioFormat.mSampleRate = kDefaultSampleRate;
- //创建一个录制音频队列
- AudioQueueNewInput (&(_audioFormat),GenericInputCallback,(__bridge voidvoid *)self,NULL,NULL,0,&_inputQueue);
- //创建一个输出队列
- AudioQueueNewOutput(&_audioFormat, GenericOutputCallback, (__bridge voidvoid *) self, CFRunLoopGetCurrent(), kCFRunLoopDefaultMode, 0,&_outputQueue);
- //设置话筒属性等
- [self initSession];
- NSError *error = nil;
- //设置audioSession格式 录音播放模式
- [[AVAudioSession sharedInstance] setCategory:AVAudioSessionCategoryPlayAndRecord error:&error];
- UInt32 audioRouteOverride = kAudioSessionOverrideAudioRoute_Speaker; //设置成话筒模式
- AudioSessionSetProperty (kAudioSessionProperty_OverrideAudioRoute,
- sizeof (audioRouteOverride),
- &audioRouteOverride);
- //创建录制音频队列缓冲区
- for (int i = 0; i < kNumberAudioQueueBuffers; i++) {
- AudioQueueAllocateBuffer (_inputQueue,kDefaultInputBufferSize,&_inputBuffers[i]);
- AudioQueueEnqueueBuffer (_inputQueue,(_inputBuffers[i]),0,NULL);
- }
- //创建并分配缓冲区空间 4个缓冲区
- for (int i = 0; i<kNumberAudioQueueBuffers; ++i)
- {
- AudioQueueAllocateBuffer(_outputQueue, kDefaultOutputBufferSize, &_outputBuffers[i]);
- }
- for (int i=0; i < kNumberAudioQueueBuffers; ++i) {
- makeSilent(_outputBuffers[i]); //改变数据
- // 给输出队列完成配置
- AudioQueueEnqueueBuffer(_outputQueue,_outputBuffers[i],0,NULL);
- }
- Float32 gain = 1.0; // 1
- // Optionally, allow user to override gain setting here 设置音量
- AudioQueueSetParameter (_outputQueue,kAudioQueueParam_Volume,gain);
- //开启录制队列
- AudioQueueStart(self.inputQueue, NULL);
- //开启播放队列
- AudioQueueStart(_outputQueue,NULL);
- [_startButton setEnabled:NO];
- [_stopButton setEnabled:YES];
- }
然后就是实现录音和播放的回调,录音回调中对PCM数据编码,打包。代码如下:
- //录音回调
- void GenericInputCallback (
- void *inUserData,
- AudioQueueRef inAQ,
- AudioQueueBufferRef inBuffer,
- const AudioTimeStamp *inStartTime,
- UInt32 inNumberPackets,
- const AudioStreamPacketDescription *inPacketDescs
- )
- {
- NSLog(@"录音回调方法");
- RootViewController *rootCtrl = (__bridge RootViewController *)(inUserData);
- if (inNumberPackets > 0) {
- NSData *pcmData = [[NSData alloc] initWithBytes:inBuffer->mAudioData length:inBuffer->mAudioDataByteSize];
- //pcm数据不为空时,编码为amr格式
- if (pcmData && pcmData.length > 0) {
- NSData *amrData = [rootCtrl.recordAmrCode encodePCMDataToAMRData:pcmData];
- //这里是对编码后的数据,通过socket发送到另一个客户端
- [rootCtrl.udpSocket sendData:amrData toHost:kDefaultIP port:kDefaultPort withTimeout:-1 tag:0];
- }
- }
- AudioQueueEnqueueBuffer (inAQ,inBuffer,0,NULL);
- }
- // 输出回调
- void GenericOutputCallback (
- void *inUserData,
- AudioQueueRef inAQ,
- AudioQueueBufferRef inBuffer
- )
- {
- NSLog(@"播放回调");
- RootViewController *rootCtrl = (__bridge RootViewController *)(inUserData);
- NSData *pcmData = nil;
- if([receiveData count] >0)
- {
- NSData *amrData = [receiveData objectAtIndex:0];
- pcmData = [rootCtrl.recordAmrCode decodeAMRDataToPCMData:amrData];
- if (pcmData) {
- if(pcmData.length < 10000){
- memcpy(inBuffer->mAudioData, pcmData.bytes, pcmData.length);
- inBuffer->mAudioDataByteSize = (UInt32)pcmData.length;
- inBuffer->mPacketDescriptionCount = 0;
- }
- }
- [receiveData removeObjectAtIndex:0];
- }
- else
- {
- makeSilent(inBuffer);
- }
- AudioQueueEnqueueBuffer(rootCtrl.outputQueue,inBuffer,0,NULL);
- }
- #pragma mark - GCDAsyncUdpSocketDelegate
- - (void)udpSocket:(GCDAsyncUdpSocket *)sock didReceiveData:(NSData *)data
- fromAddress:(NSData *)address
- withFilterContext:(id)filterContext
- {
- //这里因为对录制的PCM数据编码为amr格式并添加RTP包头之后的大小,大家可以根据自己的协议,在包头中封装上数据长度再来解析。
- //PS:因为socket在发送过程中会粘包,如发送数据AAA,然后再发送BBB,可能会一次收到AAABBB,也可能会一次收到AAA,另一次收到BBB,所以针对这种情况要判断接收数据大小,来拆包
- if(data.length >667)
- {
- int num = (data.length)/667;
- int sum = 0;
- for (int i=0; i<num; i++)
- {
- NSData *receviceData = [data subdataWithRange:NSMakeRange(i*667,667)];
- [receiveData addObject:receviceData];
- sum = sum+667;
- }
- if(sum < data.length)
- {
- NSData *otherData = [data subdataWithRange:NSMakeRange(sum, (data.length-sum))];
- [receiveData addObject:otherData];
- }
- }
- else
- {
- [receiveData addObject:data];
- }
- }
PS:附送一点思路,服务器端做一个对讲的服务器,然后所有人都用SOCKET 的TCP方式连接对讲服务器的IP和端口号,然后我们把编码后的数据发送给服务器,通过服务器转发给其他人。
上传的代码里除了有amr编码,还加了RTP包头,我等会上传一个不含RTP包头的,只是把PCM数据编码为AMR格式,把AMR格式数据解码为PCM数据的类文件。至于怎么把文件转码为AMR格式,网上的demo太多咯。
原文博客:http://blog.csdn.net/u011619283/article/details/39613335