IOS开发之语音合成(科大讯飞)详解

转载 2016年05月31日 11:04:36

转自:http://www.daxueit.com/article/4422.html

如何实现语音合成呢?

1、注册讯飞账号,申请APPID(注意选择IOS平台)
2、加载所需要的类库
3、导入所需要的类库文件头
4、调用申请的APPID以及所需函数,完成语音合成(需要参考官方给出的SDK文件)
详细步骤:

一、首先到科大讯飞官网注册账号(http://open.voicecloud.cn/),并创建应用获取appid,下载sdk文件

二、代码实现api调用

1.先用xcode(我这里使用的是xcode 5.1)新建好一个项目,然后在项目添加要用的类库。其中有一个是讯飞语音的类库iflyMSC,在下载的sdk文件里有,导入就行了。导入的时候要注意把iflyMSC类库拷贝到你的工程目录里,不然后果很严重!

2.导完类库之后,在建好的工程里添加好要用的头文件。

MainViewController.h

1
2
#import <UIKit/UIKit.h>
#import "iflyMSC/IFlySpeechSynthesizerDelegate.h"

MainViewController.m

1
2
3
4
5
6
7
#import "MainViewController.h"
#import <QuartzCore/QuartzCore.h>
#import <AVFoundation/AVAudioSession.h>
#import <AudioToolbox/AudioSession.h>
#import "iflyMSC/IFlySpeechConstant.h"
#import "iflyMSC/IFlySpeechUtility.h"
#import "iflyMSC/IFlySpeechSynthesizer.h"

3.完成这些准备工作之后,接下来就是堆代码的工作了。为了方便,笔者只用了两个控件:一个UITextField、一个UIButton,然后给这两个控件分别做一个Outlet和Action连接。

MainViewController.h

1
2
3
4
5
6
7
8
9
10
11
12
13
#import <UIKit/UIKit.h>
#import "iflyMSC/IFlySpeechSynthesizerDelegate.h"
//引入语音合成类
@class IFlySpeechSynthesizer;
@class IFlyDataUploader;
//注意要添加语音合成代理
@interface MainViewController : UIViewController<IFlySpeechSynthesizerDelegate>
//声明语音合成的对象
@property (nonatomic, strong) IFlySpeechSynthesizer *iFlySpeechSynthesizer;
@property (strong, nonatomic) IBOutlet UITextField *content;
 
- (IBAction)Start:(id)sender;
@end

MainViewController.m

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
#import "MainViewController.h"
#import <QuartzCore/QuartzCore.h>
#import <AVFoundation/AVAudioSession.h>
#import <AudioToolbox/AudioSession.h>
#import "iflyMSC/IFlySpeechConstant.h"
#import "iflyMSC/IFlySpeechUtility.h"
#import "iflyMSC/IFlySpeechSynthesizer.h"
 
@interface MainViewController ()
 
@end
 
@implementation MainViewController
 
- (void)viewDidLoad
{
    [super viewDidLoad];
    //通过appid连接讯飞语音服务器,把@"53b5560a"换成你申请的appid
    NSString *initString = [[NSString alloc] initWithFormat:@"appid=%@,timeout=%@",@"53b5560a",@"20000"];
    //所有服务启动前,需要确保执行createUtility
    [IFlySpeechUtility createUtility:initString];
     
    //创建合成对象,为单例模式
    _iFlySpeechSynthesizer = [IFlySpeechSynthesizer sharedInstance];
    _iFlySpeechSynthesizer.delegate = self;
 
    //设置语音合成的参数
    //合成的语速,取值范围 0~100
    [_iFlySpeechSynthesizer setParameter:@"50" forKey:[IFlySpeechConstant SPEED]];
    //合成的音量;取值范围 0~100
    [_iFlySpeechSynthesizer setParameter:@"50" forKey:[IFlySpeechConstant VOLUME]];
    //发音人,默认为”xiaoyan”;可以设置的参数列表可参考个性化发音人列表
    [_iFlySpeechSynthesizer setParameter:@"xiaoyan" forKey:[IFlySpeechConstant VOICE_NAME]];
    //音频采样率,目前支持的采样率有 16000 和 8000
    [_iFlySpeechSynthesizer setParameter:@"8000" forKey:[IFlySpeechConstant SAMPLE_RATE]];
    ////asr_audio_path保存录音文件路径,如不再需要,设置value为nil表示取消,默认目录是documents
    [_iFlySpeechSynthesizer setParameter:"tts.pcm" forKey:[IFlySpeechConstant TTS_AUDIO_PATH]];
 
    //隐藏键盘,点击空白处
    UITapGestureRecognizer *tapGr = [[UITapGestureRecognizer alloc] initWithTarget:self action:@selector(viewTapped:)];
    tapGr.cancelsTouchesInView = NO;
    [self.view addGestureRecognizer:tapGr]; 
}
 
-(void)viewTapped:(UITapGestureRecognizer*)tapGr
{
    [self.content resignFirstResponder];
}
 
- (void)didReceiveMemoryWarning
{
    [super didReceiveMemoryWarning];
    // Dispose of any resources that can be recreated.
}
 
- (IBAction)Start:(id)sender
{
    //启动合成会话
    [_iFlySpeechSynthesizer startSpeaking:self.content.text];
}
 
#pragma mark - IFlySpeechSynthesizerDelegate
//开始播放
- (void) onSpeakBegin
{
     
}
 
//缓冲进度
- (void) onBufferProgress:(int) progress message:(NSString *)msg
{
    NSLog(@"bufferProgress:%d,message:%@",progress,msg);
}
 
//播放进度
- (void) onSpeakProgress:(int) progress
{
    NSLog(@"play progress:%d",progress);
}
 
 //暂停播放
- (void) onSpeakPaused
{
     
}
 
//恢复播放
- (void) onSpeakResumed
{
     
}
 
//结束回调
- (void) onCompleted:(IFlySpeechError *) error
{
     
}
@end

4.以上的代理方法其实是可以不写的,但是官方给出的说明是需要加上的。若是在运行过程中出现错误,可以查看开发者文档的错误码列表,找出相应的错误。


iOS 语音合成 AVSpeechSynthesizer详解

从IOS5开始,IOS系统已经在siri上集成了语音合成的功能,但是是私有API。但是在IOS7,新增了一个简单的API----AVSpeechSynthesizer来做这件事情。 案列如下: ...

iOS开发之音轨合成(音频与音频,音频与视频)

今天和大家一起分享关于音轨合成的坑(套路!全TM是套路!走一步套一路) 理论部分: 我们需要用到AVURLAsset来初始化文件,然后用AVMutableComposition和AVMutable...

iOS语音听写、语音合成

iOS语音合成以及语音识别功能,可以这样做,有现成的代码哟。

iOS语音识别(科大讯飞SDK)

最近在研究语音识别,前段时间使用了百度语音识别,最近公司又突然让转用科大讯飞的SDK,感觉有点坑。不过 也算是学习了使用新的SDK了吧。在这里将集成SDK以及一些使用方法写一下。 第一步:获取AP...

iOS之讯飞语音SDK接入————大坑警惕!

讯飞语音的整个文档还是比较清楚明了的,但是文档里关于添加系统库的部分截图是不全的! 这是文档里的截图, 这是官方demo里添加系统库截图, 明显少了一个Contacts.fram...

iOS 如何实现 语音朗读

在IOS开发中 我们可以使用 AVSpeechSynthesizer  和  AVSpeechUtterance  这两个类 实现简单的语音朗读   具体事例代码如下      AVSpee...

如何通过讯飞语音将文本合成后的语音保存到本地

如何通过讯飞语音将文本合成后的语音保存到本地 2014-2-21分类:Android, 解决方案, 随手实例 | 暂无评论 转自:http://www.krislq.com/2014/...
  • sno_guo
  • sno_guo
  • 2015年05月08日 18:30
  • 6116

iOS开发- 百度语音SDK简单使用及问题解决

可参照iOS百度语音识别开发文档完成相关配置 一、接入指南 先引入编译需要的Framework: AudioToolbox.framework AVFoundation.framework Syst...

iOS开发(第三方使用)——讯飞语音SDK接入

去到讯飞开放平台创建应用并添加服务 下载SDK,下载时需要选上项目的,必须选上相应的项目,不能用项目1下载的SDK和项目2的app ID结合使用(估计是讯飞绑定了,所以步骤1和步骤2也不能颠倒) 拷贝...

科大讯飞语音识别使用过程中踩过的坑

眨眼之间又是好久没有写博客了,佩服那些写了很多博客的大神,坚持和耐心值得我学习 这次写的是一个知名的语音识别sdk,就是科大讯飞的语音识别,其实也没有多复杂,但是由于我是用swift语言,期间出了...
内容举报
返回顶部
收藏助手
不良信息举报
您举报文章:IOS开发之语音合成(科大讯飞)详解
举报原因:
原因补充:

(最多只允许输入30个字)