我一直对音频开发还是比较有兴趣的,所以想深入了解一下,在ios中最重要的框架还是AVFoundation。
从AVSpeechSythesisVoice开始,先来几行代码,可以从文本转化为语音。
AVSpeechUtterance *utterance = [[AVSpeechUtterance alloc] initWithString:@"hello world,please attention http://blog.csdn.net/u011397277"];
utterance.rate = 0.4f;
// utterance.voice = [AVSpeechSynthesisVoice voiceWithLanguage:@"en-US"];
utterance.pitchMultiplier = 0.8f;
utterance.postUtteranceDelay = 0.1f;
[self.synthesizer speakUtterance:utterance];
-(AVSpeechSynthesizer *)synthesizer
{
if (!_synthesizer) {
_synthesizer = [[AVSpeechSynthesizer alloc] init];
}
return _synthesizer;
}
是不是很神奇,就几行代码实现了,需要导入头文件
#import <AVFoundation/AVFoundation.h>
如果大家有兴趣,可以查看这些源码,对音频的学习有很大的帮助。
github地址:https://github.com/tapharmonic/Learning-AV-Foundation
我在以前的工作中,遇到过这样的问题。应用正在播放音乐,当电话铃声响起,手机被静音,点击手机的锁屏键,插上耳机线,我们的应用应该如何处理