AVSpeechSynthesizer *avSpeech = [[AVSpeechSynthesizeralloc]init];
AVSpeechUtterance *avSpeechterance = [AVSpeechUtterancespeechUtteranceWithString:@"接下来是新闻联播"];
AVSpeechSynthesisVoice *voiceType = [AVSpeechSynthesisVoicevoiceWithLanguage:@"zh-CN"];
avSpeechterance.voice = voiceType;
avSpeechterance.rate *=0.4;
[avSpeech speakUtterance:avSpeechterance];
参考:
在iOS7上,系统为我们提供了语音播报文字的功能,我们不仅可以播报英语内容,也可以播报汉语文字
if( [[[UIDevice
{
}
首先,判断设备的系统在iOS7或更高版本,接下来就是关键的AVSpeechUtterance和AVSpeechSynthesizer,从代价可以看出AVSpeechUtterance是设置需要播报的文字内容-warnmsg、语音速率-rate以及语言种类-preferredLang,而AVSpeechSynthesizer就是开始同步播放的类。
上面的代码节选自我项目中的部分代码,有一些变量也没有实际的意义,直接拷贝肯定不行,所以想要实现该功能,还是自己写一些变量内容,例如warnmsg = @"今天天气真好,工作加油";来测试一下。
上面的代码只能在前台运行,如果退到后台的话则不能运行,如果想要在推送的时候播报文字语音,那么这就有点蛋疼了。好在也有解决方法,在AppDelegate的applicationDidLaunch的代码中加上如下代码,则可支持后台语音播报文字内容,
NSError *error =
AVAudioSession *session = [AVAudioSession sharedInstance];
[session setCategory:AVAudioSessionCategoryPl
if(error) {
}
[session setActive:YES
if
}