使用方法:
1 导入SDK:
将开发工具包中libs目录下的Msc.jar和armeabi(实际还有多个文件,我们全部拷贝进来,以便机型适配)复制到Android工程的libs目录.
2 在项目build.gradle文件的android{}内,配置下面一段代码,同步一下gradle文件.
sourceSets {
main {
jniLibs.srcDir 'libs'
}
}
3 对清单文件进行权限配置,以下是讯飞语音用到的权限.
<!--连接网络权限,用于执行云端语音能力 -->
<uses-permission android:name="android.permission.INTERNET"/>
<!--获取手机录音机使用权限,听写、识别、语义理解需要用到此权限 -->
<uses-permission android:name="android.permission.RECORD_AUDIO"/>
<!--读取网络信息状态 -->
<uses-permission android:name="android.permission.ACCESS_NETWORK_STATE"/>
<!--获取当前wifi状态 -->
<uses-permission android:name="android.permission.ACCESS_WIFI_STATE"/>
<!--允许程序改变网络连接状态 -->
<uses-permission android:name="android.permission.CHANGE_NETWORK_STATE"/>
<!--读取手机信息权限 -->
<uses-permission android:name="android.permission.READ_PHONE_STATE"/>
<!--读取联系人权限,上传联系人需要用到此权限 -->
<uses-permission android:name="android.permission.READ_CONTACTS"/>
<!-- 如需使用人脸识别,还要添加:摄相头权限,拍照需要用到 -->
<uses-permission android:name="android.permission.CAMERA" />
只有初始化后才可以使用MSC的各项服务。建议将初始化放在程序入口处(如Application、Activity的onCreate方法),初始化代码如下:
public class MyApplication extends Application {
@Override
public void onCreate() {
//将“12345678”替换成您申请的 APPID,申请地址:http://www.xfyun.cn
//请勿在“=”与 appid 之间添加任务空字符或者转义符
SpeechUtility.createUtility(this, SpeechConstant.APPID +"=12345678");
super.onCreate();
}
}
注意:自定义的APPlication要到清单文件配置一下.在application的">"内,填上android:name=".APP"
6 执行识别语音为文字的的逻辑代码.(代码放到点击事件里)
public void Listen(View view) {
//1.创建RecognizerDialog对象,第二个参数就是一个初始化的监听器,我们用不上就设置为null
RecognizerDialog mDialog = new RecognizerDialog(this, null);
//2.设置accent、language等参数
mDialog.setParameter(SpeechConstant.LANGUAGE, "zh_cn");//设置为中文模式
mDialog.setParameter(SpeechConstant.ACCENT, "mandarin");//设置普通话模式
//若要将UI控件用于语义理解,必须添加以下参数设置,设置之后onResult回调返回将是语义理解
//mDialog.setParameter("asr_sch", "1");
//mDialog.setParameter("nlp_version", "2.0");
//创建一个装每次解析数据的容器
stringBuilder = new StringBuilder();
//3.设置回调接口
mDialog.setListener(new RecognizerDialogListener() {
//识别成功执行,参数recognizerResult 识别的结果,Json格式的字符串
//第二参数 b:等于true时会话结束,方法才不会继续回调
//一般情况下通过onResult接口多次返回结果,完整识别内容是多次累加的
@Override
public void onResult(RecognizerResult recognizerResult, boolean b) {
//拿到讯飞是别的结果
String resultString = recognizerResult.getResultString();
//自定义解析bean数据的方法,得到解析数据
String content= parseData(resultString);
System.out.println("讯飞识别的结果 "+resultString);
System.out.println("b参数是什么 "+b);
}
//识别失败执行的方法,speechError:错误码
@Override
public void onError(SpeechError speechError) {
}
});
//4.显示dialog,接收语音输入
mDialog.show();
}
7 创建Bean类(名字自定义,如果使用本文章全套代码,那么就暂时不要改,牵一发动全身),以用来存放讯飞语音识别的结果json数据.
public class XFBean {
public ArrayList<WS> ws;
public class WS{
public ArrayList<CW> cw;
}
public class CW{
public String w;
}
}
8 创建解析讯飞识别结果bean数据的方法,使用谷歌的Gson.
private String parseData(String resultString){
//创建gson对象.记得要关联一下gson.jar包,方可以使用
Gson gson = new Gson();
//参数1 String类型的json数据 参数2.存放json数据对应的bean类
XFBean xfBean = gson.fromJson(resultString, XFBean.class);
//创建集合,用来存放bean类里的对象
ArrayList<XFBean.WS> ws=xfBean.ws;
//创建一个容器,用来存放从每个集合里拿到的数据,使用StringBUndle效率高
StringBuilder stringBuilder = new StringBuilder();
for (XFBean.WS w : ws) {
String text= w.cw.get(0).w;
stringBuilder.append(text);
}
//把容器内的数据转换为字符串返回出去
return stringBuilder.toString();
}
9 执行识别语音为文字的的逻辑代码(之前的拿到的数据是无法直接使用的bean数据,现在就是解析出来的最终String类型数据)
public void Listen(View view) {
//1.创建RecognizerDialog对象,第二个参数就是一个初始化的监听器,我们用不上就设置为null
RecognizerDialog mDialog = new RecognizerDialog(this, null);
//2.设置accent、language等参数
mDialog.setParameter(SpeechConstant.LANGUAGE, "zh_cn");//设置为中文模式
mDialog.setParameter(SpeechConstant.ACCENT, "mandarin");//设置普通话模式
//若要将UI控件用于语义理解,必须添加以下参数设置,设置之后onResult回调返回将是语义理解
//mDialog.setParameter("asr_sch", "1");
//mDialog.setParameter("nlp_version", "2.0");
//创建一个装每次解析数据的容器
stringBuilder = new StringBuilder();
//3.设置回调接口
mDialog.setListener(new RecognizerDialogListener() {
//识别成功执行,参数recognizerResult 识别的结果,Json格式的字符串
//第二参数 b:等于true时会话结束,方法才不会继续回调
//一般情况下通过onResult接口多次返回结果,完整识别内容是多次累加的
@Override
public void onResult(RecognizerResult recognizerResult, boolean b) {
//拿到讯飞是别的结果
String resultString = recognizerResult.getResultString();
System.out.println("讯飞识别的结果 "+resultString);
//自定义解析bean数据的一个方法.用到了Gson,在项目里关联一下.
String text = parseData(resultString);
//容器装解析出来的数据
stringBuilder.append(text);
//对参数2进行判断,如果为true,代表这个方法不会再回调,就把容器里的数据转成字符串.拿来使用.
if(b){
String result = stringBuilder.toString();
System.out.println("话说完,最终的结果 : "+ result);
}
}
//识别失败执行的方法,speechError:错误码
@Override
public void onError(SpeechError speechError) {
}
});
//4.显示dialog,接收语音输入
mDialog.show();
}
10 讯飞固定的把文字转文语音的逻辑代码,把String参数传进去,然后调用此方法即可
public void textToVoice(String result){
//1.创建 SpeechSynthesizer 对象, 第二个参数:本地合成时传 InitListener
SpeechSynthesizer mTts= SpeechSynthesizer.createSynthesizer(this, null);
//2.合成参数设置,详见《MSC Reference Manual》SpeechSynthesizer 类
// 设置发音人(更多在线发音人,用户可参见 附录13.2
mTts.setParameter(SpeechConstant.VOICE_NAME, "xiaoyan"); //设置发音人
mTts.setParameter(SpeechConstant.SPEED, "50");//设置语速
mTts.setParameter(SpeechConstant.VOLUME, "80");//设置音量,范围 0~100
mTts.setParameter(SpeechConstant.ENGINE_TYPE, SpeechConstant.TYPE_CLOUD); //设置云端,这些功能用到了讯飞服务器,所以要有网络
//设置合成音频保存位置(可自定义保存位置),保存在“./sdcard/iflytek.pcm”
//保存在 SD 卡需要在 AndroidManifest.xml 添加写 SD 卡权限
//仅支持保存为 pcm 和 wav 格式,如果不需要保存合成音频,注释该行代码
// mTts.setParameter(SpeechConstant.TTS_AUDIO_PATH, "./sdcard/iflytek.pcm");
// 3.开始合成,第一个参数就是转换成声音的文字,自定义,第二个参数就是合成监听器对象,我们不需要对声音有什么特殊处理,就传null
mTts.startSpeaking(result, null);
}
11 使智能语音能根据用户说的话,回答相映的内容,这就需要拿到用户说话的结果,进行判断,回答对应的内容,在if(b)中添加
String result = stringBuilder.toString();
//回答对象,在没有匹配到用户说的话,默认输出语句
String anwser="不好意思,年纪大了,耳朵不好,没有听清楚";
if(result.contains("你好")){
anwser="你好,我是你的智能语音助手,很高兴为你服务";
}
textToVoice(anwser);
12 语音合成中调用textToVoice并传入你想说的话就可以
public void Talk(View view) {
textToVoice("你好");
}
Main
Activity布局:
<?xml version="1.0" encoding="utf-8"?>
<LinearLayout
xmlns:android="http://schemas.android.com/apk/res/android"
xmlns:tools="http://schemas.android.com/tools"
android:orientation="horizontal"
android:layout_width="match_parent"
android:layout_height="match_parent">
<Button
android:layout_width="0dp"
android:layout_weight="1"
android:layout_height="wrap_content"
android:onClick="Listen"
android:text="语音识别"/>
<Button
android:layout_width="0dp"
android:layout_weight="1"
android:layout_height="wrap_content"
android:onClick="Talk"
android:text="语音合成"/>
</LinearLayout>