一.走近讯飞(iFly)
语音技术实现了人机语音交互,使人与机器之间沟通变得像人与人沟通一样简单。语音技术主要包括语音合成和语音识别两项关键技术。让机器说话,用的是语音合成技术;让机器听懂人说话,用的是语音识别技术。此外,语音技术还包括语音编码、音色转换、口语评测、语音消噪和增强等技术,有着广阔应用空间。
- 早期的语音识别技术让人啼笑皆非, 就连Siri刚出道时, 也是漏洞百出. 但是讯飞通过多年的不懈努力, 最近发展迅速, 这也是技术型项目前期技术积累的必然结果.
- 百度也推出了自己的语音识别, 但是因为技术积累尚浅, 移植和测试体验尚不如讯飞 – 本条个人观点.
科大讯飞从开始的只做语音识别和语音合成, 到现在的广告+统计+广场+人脸识别+声纹识别+推送
, 可以看出它的野心–打造综合性平台, 同时又不放弃专营业务(并且拥有难以记忆的英文缩写和logo).
从使用讯飞的SDK过程中, 还是能感觉到诚意的, 很多设计很人性化, 免费提供了诸多测试和使用接口, 让人好感倍增, 这也是为啥我为其做了这么多广告.
二.搭建环境
登录开发者平台
- 注册用户并且登录
-
创建新应用
选择创建新应用:
这里可以比较随意填写, 但是注意平台别搞错.
-
为新应添加服务
新创建的应用可以在”我的应用”中查看, 开始的时候, 这个应用没有使用任何SDK, 我们需要向讯飞注册一下我们的app都需要哪些服务.
点击”开通更多服务”, 选择语言听写和在线语音合成两个SDK, 第一个开发语义是自己添加上的.
-
下载相应SDK
进入下载SDK界面, 您可以通过诸多位置进入到这里, 可能与截图不符, 但没有问题.
这里选择”组合服务SDK下载”, 勾选图中前两个.
选择平台
最后选择刚才创建的引用, 之后点击下载.
-
新建xcode(singleView)工程, 将下载好的文件夹中lib下的iflyMac导入(拖入)工程
三.代码+++++
-
在storyBoard的viewController中拖入几个控件, 一个UILable用来显示语音翻译后的文字, 两个UIbutton用来触发”带界面的实时翻译”和”不带界面的实时翻译”. 并为他们拖出属性和响应方法.
如图:
-
appdelegate.m中, 添加如下代码(注册):
AppDelegate.m 的 didFinishLaunchingWithOptions中:1 2 3 4 5 6
- (BOOL)application:(UIApplication *)application didFinishLaunchingWithOptions:(NSDictionary *)launchOptions { // 根据appid登录到讯飞的服务器, 过程需要身份验证 , 56678310 NSString *initString = [[NSString alloc] initWithFormat:@"appid=%@",@"你的appid, 别用我的"]; [IFlySpeechUtility createUtility:initString]; return YES; }
下面是写好后的ViewController代码:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 |