这几天学习了简单的讯飞科技语音的集成,非常的简单,接下来就给大家写一下具体的步骤
首先在讯飞科技的首页注册,http://www.xfyun.cn/,这是网址,1:注册完成之后:2:打开自己的控制台:3:创建应用4:下载对应的SDK,
将下载下的SDK解压:
将libs下的两个jar包添加到libs目录下, 将同路径下的其它 .so文件(与c进行交互)复制到main路径下新建的 jniLibs(L要大写)目录下(别忘了jar包要add) , 将assert目录拷贝到main目录下
接下来就是添加权限了:(如果不打开权限,运行时就会报错)
<!--连接网络权限,用于执行云端语音能力 -->
<uses-permission android:name="android.permission.INTERNET" />
<!--获取手机录音机使用权限,听写、识别、语义理解需要用到此权限 -->
<uses-permission android:name="android.permission.RECORD_AUDIO" />
<!--读取网络信息状态 -->
<uses-permission android:name="android.permission.ACCESS_NETWORK_STATE" />
<!--获取当前wifi状态 -->
<uses-permission android:name="android.permission.ACCESS_WIFI_STATE" />
<!--允许程序改变网络连接状态 -->
<uses-permission android:name="android.permission.CHANGE_NETWORK_STATE" />
<!--读取手机信息权限 -->
<uses-permission android:name="android.permission.READ_PHONE_STATE" />
<!--SD卡读写的权限(如果需要保存音频文件到本地的话)-->
<uses-permission android:name="android.permission.MOUNT_UNMOUNT_FILESYSTEMS" />
<uses-permission android:name="android.permission.WRITE_EXTERNAL_STORAGE" />
<uses-permission android:name="android.permission.READ_EXTERNAL_STORAGE" />
package com.bwie.test.myvoicetext;
import android.support.v7.app.AppCompatActivity;
import android.os.Bundle;
import android.os.Bundle ;
import android.util.Log ;
import android.view.View ;
import android.widget.Button ;
import android.widget.EditText ;
import android.widget.Toast ;
import com.iflytek.cloud.ErrorCode ;
import com.iflytek.cloud.InitListener ;
import com.iflytek.cloud.RecognizerListener ;
import com.iflytek.cloud.RecognizerResult ;
import com.iflytek.cloud.SpeechConstant ;
import com.iflytek.cloud.SpeechError ;
import com.iflytek.cloud.SpeechRecognizer ;
import com.iflytek.cloud.SpeechSynthesizer ;
import com.iflytek.cloud.SpeechUtility ;
import com.iflytek.cloud.SynthesizerListener ;
import com.iflytek.cloud.ui.RecognizerDialog ;
import com.iflytek.cloud.ui.RecognizerDialogListener ;
import org.json.JSONException ;
import org.json.JSONObject ;
import java.util.HashMap ;
import java.util.LinkedHashMap ;
public class MainActivity extends AppCompatActivity implements View.OnClickListener{
private static final String TAG = MainActivity.class .getSimpleName();
private EditText et_input;
private Button btn_startspeech, btn_startspeektext ;
// 用HashMap存储听写结果
private HashMap<String, String> mIatResults = new LinkedHashMap<String , String>();
@Override
protected void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
setContentView(R.layout.activity_main);
initView() ;
initSpeech() ;
}
private void initView() {
setContentView(R.layout.activity_main) ;
et_input = (EditText) findViewById(R.id.et_input );
btn_startspeech = (Button) findViewById(R.id.btn_startspeech );
btn_startspeektext = (Button) findViewById(R.id.btn_startspeektext );
btn_startspeech .setOnClickListener(this) ;
btn_startspeektext .setOnClickListener(this) ;
}
private void initSpeech() {
// 将“12345678”替换成您申请的 APPID,申请地址: http://www.xfyun.cn
// 请勿在 “ =”与 appid 之间添加任务空字符或者转义符
SpeechUtility. createUtility( this, SpeechConstant. APPID + "=59f859a6" );
}
@Override
public void onClick(View v) {
switch (v.getId()) {
case R.id.btn_startspeech: //语音识别(把声音转文字)
startSpeechDialog();
break;
case R.id. btn_startspeektext:// 语音合成(把文字转声音)
speekText();
break;
}
}
private void speekText() {
//1. 创建 SpeechSynthesizer 对象 , 第二个参数: 本地合成时传 InitListener
SpeechSynthesizer mTts = SpeechSynthesizer.createSynthesizer( this, null);
//2.合成参数设置,详见《 MSC Reference Manual》 SpeechSynthesizer 类
//设置发音人(更多在线发音人,用户可参见 附录 13.2
mTts.setParameter(SpeechConstant. VOICE_NAME, "vixyun" ); // 设置发音人
mTts.setParameter(SpeechConstant. SPEED, "50" );// 设置语速
mTts.setParameter(SpeechConstant. VOLUME, "80" );// 设置音量,范围 0~100
mTts.setParameter(SpeechConstant. ENGINE_TYPE, SpeechConstant. TYPE_CLOUD); //设置云端
//设置合成音频保存位置(可自定义保存位置),保存在 “./sdcard/iflytek.pcm”
//保存在 SD 卡需要在 AndroidManifest.xml 添加写 SD 卡权限
//仅支持保存为 pcm 和 wav 格式, 如果不需要保存合成音频,注释该行代码
mTts.setParameter(SpeechConstant. TTS_AUDIO_PATH, "./sdcard/iflytek.pcm" );
//3.开始合成
mTts.startSpeaking( et_input.getText().toString(), new MySynthesizerListener()) ;
}
class MySynthesizerListener implements SynthesizerListener {
@Override
public void onSpeakBegin() {
showTip(" 开始播放 ");
}
@Override
public void onSpeakPaused() {
showTip(" 暂停播放 ");
}
@Override
public void onSpeakResumed() {
showTip(" 继续播放 ");
}
@Override
public void onBufferProgress(int percent, int beginPos, int endPos ,
String info) {
// 合成进度
}
@Override
public void onSpeakProgress(int percent, int beginPos, int endPos) {
// 播放进度
}
@Override
public void onCompleted(SpeechError error) {
if (error == null) {
showTip("播放完成 ");
} else if (error != null ) {
showTip(error.getPlainDescription( true));
}
}
@Override
public void onEvent(int eventType, int arg1 , int arg2, Bundle obj) {
// 以下代码用于获取与云端的会话 id,当业务出错时将会话 id提供给技术支持人员,可用于查询会话日志,定位出错原因
// 若使用本地能力,会话 id为null
//if (SpeechEvent.EVENT_SESSION_ID == eventType) {
// String sid = obj.getString(SpeechEvent.KEY_EVENT_SESSION_ID);
// Log.d(TAG, "session id =" + sid);
//}
}
}
private void startSpeechDialog() {
//1. 创建RecognizerDialog对象
RecognizerDialog mDialog = new RecognizerDialog(this, new MyInitListener()) ;
//2. 设置accent、 language等参数
mDialog.setParameter(SpeechConstant. LANGUAGE, "zh_cn" );// 设置中文
mDialog.setParameter(SpeechConstant. ACCENT, "mandarin" );
// 若要将UI控件用于语义理解,必须添加以下参数设置,设置之后 onResult回调返回将是语义理解
// 结果
// mDialog.setParameter("asr_sch", "1");
// mDialog.setParameter("nlp_version", "2.0");
//3.设置回调接口
mDialog.setListener( new MyRecognizerDialogListener()) ;
//4. 显示dialog,接收语音输入
mDialog.show() ;
}
class MyRecognizerDialogListener implements RecognizerDialogListener {
/**
* @param results
* @param isLast 是否说完了
*/
@Override
public void onResult(RecognizerResult results, boolean isLast) {
String result = results.getResultString(); //为解析的
showTip(result) ;
System. out.println(" 没有解析的 :" + result);
String text = JsonParser.parseIatResult(result) ;//解析过后的
System. out.println(" 解析后的 :" + text);
String sn = null;
// 读取json结果中的 sn字段
try {
JSONObject resultJson = new JSONObject(results.getResultString()) ;
sn = resultJson.optString("sn" );
} catch (JSONException e) {
e.printStackTrace();
}
mIatResults .put(sn, text) ;//没有得到一句,添加到
StringBuffer resultBuffer = new StringBuffer();
for (String key : mIatResults.keySet()) {
resultBuffer.append(mIatResults .get(key));
}
et_input.setText(resultBuffer.toString());// 设置输入框的文本
et_input .setSelection(et_input.length()) ;//把光标定位末尾
}
@Override
public void onError(SpeechError speechError) {
}
}
class MyInitListener implements InitListener {
@Override
public void onInit(int code) {
if (code != ErrorCode.SUCCESS) {
showTip("初始化失败 ");
}
}
}
/**
* 语音识别
*/
private void startSpeech() {
//1. 创建SpeechRecognizer对象,第二个参数: 本地识别时传 InitListener
SpeechRecognizer mIat = SpeechRecognizer.createRecognizer( this, null); //语音识别器
//2. 设置听写参数,详见《 MSC Reference Manual》 SpeechConstant类
mIat.setParameter(SpeechConstant. DOMAIN, "iat" );// 短信和日常用语: iat (默认)
mIat.setParameter(SpeechConstant. LANGUAGE, "zh_cn" );// 设置中文
mIat.setParameter(SpeechConstant. ACCENT, "mandarin" );// 设置普通话
//3. 开始听写
mIat.startListening( mRecoListener);
}
// 听写监听器
private RecognizerListener mRecoListener = new RecognizerListener() {
// 听写结果回调接口 (返回Json 格式结果,用户可参见附录 13.1);
//一般情况下会通过onResults接口多次返回结果,完整的识别内容是多次结果的累加;
//关于解析Json的代码可参见 Demo中JsonParser 类;
//isLast等于true 时会话结束。
public void onResult(RecognizerResult results, boolean isLast) {
Log.e (TAG, results.getResultString());
System.out.println(results.getResultString()) ;
showTip(results.getResultString()) ;
}
// 会话发生错误回调接口
public void onError(SpeechError error) {
showTip(error.getPlainDescription(true)) ;
// 获取错误码描述
Log. e(TAG, "error.getPlainDescription(true)==" + error.getPlainDescription(true ));
}
// 开始录音
public void onBeginOfSpeech() {
showTip(" 开始录音 ");
}
//volume 音量值0~30, data音频数据
public void onVolumeChanged(int volume, byte[] data) {
showTip(" 声音改变了 ");
}
// 结束录音
public void onEndOfSpeech() {
showTip(" 结束录音 ");
}
// 扩展用接口
public void onEvent(int eventType, int arg1 , int arg2, Bundle obj) {
}
};
private void showTip (String data) {
Toast.makeText( this, data, Toast.LENGTH_SHORT).show() ;
}
}
创建一个类: JsonParser
package com.bwie.test.myvoicetext;
import org.json.JSONArray;
import org.json.JSONObject;
import org.json.JSONTokener;
/**
* Created by 笔片 on 2017/10/31.
*/
public class JsonParser {
public static String parseIatResult(String json) {
StringBuffer ret = new StringBuffer() ;
try {
JSONTokener tokener = new JSONTokener(json) ;
JSONObject joResult = new JSONObject(tokener) ;
JSONArray words = joResult.getJSONArray("ws" );
for (int i = 0; i < words.length(); i++) {
// 转写结果词,默认使用第一个结果
JSONArray items = words.getJSONObject(i).getJSONArray("cw" );
JSONObject obj = items.getJSONObject(0 );
ret.append(obj.getString("w" ));
// 如果需要多候选结果,解析数组其他字段
// for(int j = 0; j < items.length(); j++)
// {
// JSONObject obj = items.getJSONObject(j);
// ret.append(obj.getString("w"));
// }
}
} catch (Exception e) {
e.printStackTrace();
}
return ret.toString();
}
public static String parseGrammarResult(String json) {
StringBuffer ret = new StringBuffer() ;
try {
JSONTokener tokener = new JSONTokener(json) ;
JSONObject joResult = new JSONObject(tokener) ;
JSONArray words = joResult.getJSONArray("ws" );
for (int i = 0; i < words.length(); i++) {
JSONArray items = words.getJSONObject(i).getJSONArray("cw" );
for (int j = 0; j < items.length() ; j++)
{
JSONObject obj = items.getJSONObject(j);
if (obj.getString("w").contains( "nomatch"))
{
ret.append( "没有匹配结果.") ;
return ret.toString();
}
ret.append( "【结果】" + obj.getString("w" ));
ret.append("【置信度】 " + obj.getInt("sc" ));
ret.append("\n ");
}
}
} catch (Exception e) {
e.printStackTrace();
ret.append(" 没有匹配结果 .");
}
return ret.toString();
}
public static String parseLocalGrammarResult(String json) {
StringBuffer ret = new StringBuffer() ;
try {
JSONTokener tokener = new JSONTokener(json) ;
JSONObject joResult = new JSONObject(tokener) ;
JSONArray words = joResult.getJSONArray("ws" );
for (int i = 0; i < words.length(); i++) {
JSONArray items = words.getJSONObject(i).getJSONArray("cw" );
for (int j = 0; j < items.length() ; j++)
{
JSONObject obj = items.getJSONObject(j);
if (obj.getString("w").contains( "nomatch"))
{
ret.append( "没有匹配结果.") ;
return ret.toString();
}
ret.append( "【结果】" + obj.getString("w" ));
ret.append("\n ");
}
}
ret.append("【置信度】 " + joResult.optInt("sc" ));
} catch (Exception e) {
e.printStackTrace();
ret.append(" 没有匹配结果 .");
}
return ret.toString();
}
}
activity_main.xml:
<?xml version="1.0" encoding="utf-8"?>
<LinearLayout xmlns:android="http://schemas.android.com/apk/res/android"
xmlns:tools="http://schemas.android.com/tools"
android:id="@+id/activity_main"
android:layout_width="match_parent"
android:layout_height="match_parent"
android:orientation="vertical"
tools:context="com.bwie.test.myvoicetext.MainActivity">
<EditText
android:id="@+id/et_input"
android:layout_margin="10dp"
android:layout_width="match_parent"
android:layout_height="80dp"
android:hint="请输入文本信息 ..." />
<Button
android:id="@+id/btn_startspeech"
android:text="点击按钮语音输入 "
android:layout_width="match_parent"
android:layout_height="wrap_content" />
<Button
android:id="@+id/btn_startspeektext"
android:text="语音合成(把文字转声音) "
android:layout_width="match_parent"
android:layout_height="wrap_content" />
</LinearLayout>
好了,写到这就可以运行试试了。