概述
开篇先介绍一下‘科大讯飞’,毕竟是我家乡合肥的科技公司,我感到骄傲,更重要的是它在语音识别行业也是佼佼者,在如今人工智能横飞的时代,依然能够保持着较高水准的技术优势。在此,希望科大在AI之战中能发展的越来越棒。好了,接下里进入主题,先来看看科大讯飞在MSC移动语音终端(Android)开放的功能接口。
源码连接:http://download.csdn.net/download/csdn_aiyang/10158914
名词 |
解释 |
语音合成 |
将一段文字转换为成语音,可根据需要合成出不同音色、语速和语调的声音,让机器像人一样开口说话。 |
语音听写 |
将一段语音转换成文字内容,能识别常见的词汇、语句、语气并自动断句。 |
语音识别 |
判断所说的内容是否与预定义的语法相符合,主要用于判断用户是否下达某项命令。 |
语义理解 |
分析用户语音或文字的意图,给出相应的回答,如输入“今天合肥的天气”,云端即返回今天合肥的天气信息。 |
语音评测 |
通过智能语音技术对发音水平进行评价,给出得分。 |
声纹密码 |
一种基于每个人的声音都具有唯一性的认证机制,使用声音作为密码。 |
人脸识别 |
从照片、视频流中检测出人脸,或者识别两张人脸照片是否为同一个人。 |
资料参考
集成准备
首先,打开科大讯飞平台,进行登录注册及创建应用。
点击右上控制台,进入管理应用和创建应用。
创建完应用,选择添加在线语音合成。另外,请注意该应用的APPID,及右方该应用的下载SDK。
接下里就是点击SDK下载进入选择页面。 有单选和组合两种方式下载。组合就是多个功能一起使用。
点击下载SDK,下载完成后,打开压缩包进入,并找到sample -->lib 里 Msc.jar文件和.so文件复制到项目里。(若gradle默认引用lib下所有文件,直接sync即可)
代码工作
完成上面的准备工作,接下里就是在项目里写代码了。创建MyApplication.class类
并在AndroidManifest.xml的application标签里添加 android:name=".MyApplication"。
public class MyApplication extends Application {
private static Context context;
@Override
public void onCreate() {
super.onCreate();
context = getApplicationContext();
SpeechUtility.createUtility(this, "appid=12345678");//=号后面写自己应用的APPID
Setting.setShowLog(true); //设置日志开关(默认为true),设置成false时关闭语音云SDK日志打印
//TTSUtils.getInstance().init(); 初始化工具类
}
//获取应用上下文环境
public static Context getContext() {
return context;
}
}
需要注意,一定要记得写在平台上创建的应用APPID。另外,下载的SDK文件夹命名也会有APPID。
这里封装好一个工具类,可以直接拿到项目中使用。TTSUtils.class类