1.首先在讯飞开放平台注册账号
http://www.xfyun.cn/?ch=bdtg
2.在控制台添加应用 获得APPID
然后添加应用
之后就是下载SDK了
在组合服务下载SDK中下载
下载好后解压出来得到以下文件
把libs下的资源放入到你的工程的libs下面
手动添加到依赖库add as library
你还需要把assets文件夹复制到main下面
在项目build.gradle文件的android{}内,配置下面一段代码,同步一下gradle文件
sourceSets {
main {
jniLibs.srcDirs = ['libs']
}
}
当然还必须有权限了
<!--连接网络权限,用于执行云端语音能力 -->
<uses-permission android:name="android.permission.INTERNET"/>
<!--获取手机录音机使用权限,听写、识别、语义理解需要用到此权限 -->
<uses-permission android:name="android.permission.RECORD_AUDIO"/>
<!--读取网络信息状态 -->
<uses-permission android:name="android.permission.ACCESS_NETWORK_STATE"/>
<!--获取当前wifi状态 -->
<uses-permission android:name="android.permission.ACCESS_WIFI_STATE"/>
<!--允许程序改变网络连接状态 -->
<uses-permission android:name="android.permission.CHANGE_NETWORK_STATE"/>
<!--读取手机信息权限 -->
<uses-permission android:name="android.permission.READ_PHONE_STATE"/>
<!--读取联系人权限,上传联系人需要用到此权限 -->
<uses-permission android:name="android.permission.READ_CONTACTS"/>
<!-- 如需使用人脸识别,还要添加:摄相头权限,拍照需要用到 -->
<uses-permission android:name="android.permission.CAMERA" />
接下来就是代码了
先创建一个Application类在里面进行配置
public class MyApp extends Application {
@Override
public void onCreate() {
super.onCreate();
//讯飞语音
SpeechUtility.createUtility(this, SpeechConstant.APPID +"=你的APPID");
}
}
记得在Manifest.xml中配置
注意这里的“=”号不能删除哦
public class JsonParser { public static String parseIatResult(String json) { StringBuffer ret = new StringBuffer() ; try { JSONTokener tokener = new JSONTokener(json) ; JSONObject joResult = new JSONObject(tokener) ; JSONArray words = joResult.getJSONArray("ws" ); for (int i = 0; i < words.length(); i++) { // 转写结果词,默认使用第一个结果 JSONArray items = words.getJSONObject(i).getJSONArray("cw" ); JSONObject obj = items.getJSONObject(0 ); ret.append(obj.getString("w" )); // 如果需要多候选结果,解析数组其他字段 // for(int j = 0; j < items.length(); j++) // { // JSONObject obj = items.getJSONObject(j); // ret.append(obj.getString("w")); // } } } catch (Exception e) { e.printStackTrace(); } return ret.toString(); } public static String parseGrammarResult(String json) { StringBuffer ret = new StringBuffer() ; try { JSONTokener tokener = new JSONTokener(json) ; JSONObject joResult = new JSONObject(tokener) ; JSONArray words = joResult.getJSONArray("ws" ); for (int i = 0; i < words.length(); i++) { JSONArray items = words.getJSONObject(i).getJSONArray("cw" ); for (int j = 0; j < items.length() ; j++) { JSONObject obj = items.getJSONObject(j); if (obj.getString("w").contains( "nomatch")) { ret.append( "没有匹配结果.") ; return ret.toString(); } ret.append( "【结果】" + obj.getString("w" )); ret.append("【置信度】 " + obj.getInt("sc" )); ret.append("\n "); } } } catch (Exception e) { e.printStackTrace(); ret.append(" 没有匹配结果 ."); } return ret.toString(); } public static String parseLocalGrammarResult(String json) { StringBuffer ret = new StringBuffer() ; try { JSONTokener tokener = new JSONTokener(json) ; JSONObject joResult = new JSONObject(tokener) ; JSONArray words = joResult.getJSONArray("ws" ); for (int i = 0; i < words.length(); i++) { JSONArray items = words.getJSONObject(i).getJSONArray("cw" ); for (int j = 0; j < items.length() ; j++) { JSONObject obj = items.getJSONObject(j); if (obj.getString("w").contains( "nomatch")) { ret.append( "没有匹配结果.") ; return ret.toString(); } ret.append( "【结果】" + obj.getString("w" )); ret.append("\n "); } } ret.append("【置信度】 " + joResult.optInt("sc" )); } catch (Exception e) { e.printStackTrace(); ret.append(" 没有匹配结果 ."); } return ret.toString(); } }
import android.os.Bundle; import android.support.v7.app.AppCompatActivity; import android.util.Log; import android.view.View; import android.widget.Button; import android.widget.EditText; import android.widget.Toast; import com.iflytek.cloud.ErrorCode; import com.iflytek.cloud.InitListener; import com.iflytek.cloud.RecognizerListener; import com.iflytek.cloud.RecognizerResult; import com.iflytek.cloud.SpeechConstant; import com.iflytek.cloud.SpeechError; import com.iflytek.cloud.SpeechRecognizer; import com.iflytek.cloud.SpeechSynthesizer; import com.iflytek.cloud.SpeechUtility; import com.iflytek.cloud.SynthesizerListener; import com.iflytek.cloud.ui.RecognizerDialog; import com.iflytek.cloud.ui.RecognizerDialogListener; import org.json.JSONException; import org.json.JSONObject; import java.util.HashMap; import java.util.LinkedHashMap; import static com.bawei.guolijun20171101.R.id.btn_startspeech; import static com.bawei.guolijun20171101.R.id.btn_startspeektext; public class MainActivity extends AppCompatActivity implements View.OnClickListener{ private Button btn1; private Button btn2; private EditText et_input; private static final String TAG = MainActivity.class .getSimpleName(); private HashMap<String, String> mIatResults = new LinkedHashMap<String , String>(); @Override protected void onCreate(Bundle savedInstanceState) { super.onCreate(savedInstanceState); setContentView(R.layout.activity_main); btn1 = (Button) findViewById(btn_startspeech); btn2 = (Button) findViewById(btn_startspeektext); et_input = (EditText) findViewById(R.id.et_input); btn1.setOnClickListener(this); btn2.setOnClickListener(this); initSpeech() ; } private void initSpeech() { // 将“12345678”替换成您申请的 APPID,申请地址: http://www.xfyun.cn // 请勿在 “ =”与 appid 之间添加任务空字符或者转义符 SpeechUtility.createUtility(this, SpeechConstant.APPID + "=59f855b9"); } @Override public void onClick(View v) { switch (v.getId()) { case R.id.btn_startspeech: //语音识别(把声音转文字) startSpeechDialog(); break; case R.id. btn_startspeektext:// 语音合成(把文字转声音) speekText(); break; } } private void speekText() { //1. 创建 SpeechSynthesizer 对象 , 第二个参数: 本地合成时传 InitListener SpeechSynthesizer mTts = SpeechSynthesizer.createSynthesizer( this, null); //2.合成参数设置,详见《 MSC Reference Manual》 SpeechSynthesizer 类 //设置发音人(更多在线发音人,用户可参见 附录 13.2 mTts.setParameter(SpeechConstant. VOICE_NAME, "vixyun" ); // 设置发音人 mTts.setParameter(SpeechConstant. SPEED, "50" );// 设置语速 mTts.setParameter(SpeechConstant. VOLUME, "80" );// 设置音量,范围 0~100 mTts.setParameter(SpeechConstant. ENGINE_TYPE, SpeechConstant. TYPE_CLOUD); //设置云端 //设置合成音频保存位置(可自定义保存位置),保存在 “./sdcard/iflytek.pcm” //保存在 SD 卡需要在 AndroidManifest.xml 添加写 SD 卡权限 //仅支持保存为 pcm 和 wav 格式, 如果不需要保存合成音频,注释该行代码 mTts.setParameter(SpeechConstant. TTS_AUDIO_PATH, "./sdcard/iflytek.pcm" ); //3.开始合成 mTts.startSpeaking( et_input.getText().toString(), new MySynthesizerListener()) ; } class MySynthesizerListener implements SynthesizerListener{ @Override public void onSpeakBegin() { showTip(" 开始播放 "); } @Override public void onSpeakPaused() { showTip(" 暂停播放 "); } @Override public void onSpeakResumed() { showTip(" 继续播放 "); } @Override public void onBufferProgress(int percent, int beginPos, int endPos , String info) { // 合成进度 } @Override public void onSpeakProgress(int percent, int beginPos, int endPos) { // 播放进度 } @Override public void onCompleted(SpeechError error) { if (error == null) { showTip("播放完成 "); } else if (error != null ) { showTip(error.getPlainDescription( true)); } } @Override public void onEvent(int eventType, int arg1 , int arg2, Bundle obj) { // 以下代码用于获取与云端的会话 id,当业务出错时将会话 id提供给技术支持人员,可用于查询会话日志,定位出错原因 // 若使用本地能力,会话 id为null //if (SpeechEvent.EVENT_SESSION_ID == eventType) { // String sid = obj.getString(SpeechEvent.KEY_EVENT_SESSION_ID); // Log.d(TAG, "session id =" + sid); //} } } private void startSpeechDialog() { //1. 创建RecognizerDialog对象 RecognizerDialog mDialog = new RecognizerDialog(this, new MyInitListener()) ; //2. 设置accent、 language等参数 mDialog.setParameter(SpeechConstant. LANGUAGE, "zh_cn" );// 设置中文 mDialog.setParameter(SpeechConstant. ACCENT, "mandarin" ); // 若要将UI控件用于语义理解,必须添加以下参数设置,设置之后 onResult回调返回将是语义理解 // 结果 // mDialog.setParameter("asr_sch", "1"); // mDialog.setParameter("nlp_version", "2.0"); //3.设置回调接口 mDialog.setListener( new MyRecognizerDialogListener()) ; //4. 显示dialog,接收语音输入 mDialog.show() ; } class MyRecognizerDialogListener implements RecognizerDialogListener { /** * @param results * @param isLast 是否说完了 */ @Override public void onResult(RecognizerResult results, boolean isLast) { String result = results.getResultString(); //为解析的 showTip(result) ; System. out.println(" 没有解析的 :" + result); String text = JsonParser.parseIatResult(result) ;//解析过后的 System. out.println(" 解析后的 :" + text); String sn = null; // 读取json结果中的 sn字段 try { JSONObject resultJson = new JSONObject(results.getResultString()) ; sn = resultJson.optString("sn" ); } catch (JSONException e) { e.printStackTrace(); } mIatResults .put(sn, text) ;//没有得到一句,添加到 StringBuffer resultBuffer = new StringBuffer(); for (String key : mIatResults.keySet()) { resultBuffer.append(mIatResults .get(key)); } et_input.setText(resultBuffer.toString());// 设置输入框的文本 et_input .setSelection(et_input.length()) ;//把光标定位末尾 } @Override public void onError(SpeechError speechError) { } } class MyInitListener implements InitListener { @Override public void onInit(int code) { if (code != ErrorCode.SUCCESS) { showTip("初始化失败 "); } } } private void startSpeech() { //1. 创建SpeechRecognizer对象,第二个参数: 本地识别时传 InitListener SpeechRecognizer mIat = SpeechRecognizer.createRecognizer( this, null); //语音识别器 //2. 设置听写参数,详见《 MSC Reference Manual》 SpeechConstant类 mIat.setParameter(SpeechConstant. DOMAIN, "iat" );// 短信和日常用语: iat (默认) mIat.setParameter(SpeechConstant. LANGUAGE, "zh_cn" );// 设置中文 mIat.setParameter(SpeechConstant. ACCENT, "mandarin" );// 设置普通话 //3. 开始听写 mIat.startListening( mRecoListener); } private RecognizerListener mRecoListener = new RecognizerListener() { // 听写结果回调接口 (返回Json 格式结果,用户可参见附录 13.1); //一般情况下会通过onResults接口多次返回结果,完整的识别内容是多次结果的累加; //关于解析Json的代码可参见 Demo中JsonParser 类; //isLast等于true 时会话结束。 public void onResult(RecognizerResult results, boolean isLast) { Log.e (TAG, results.getResultString()); System.out.println(results.getResultString()) ; showTip(results.getResultString()) ; } // 会话发生错误回调接口 public void onError(SpeechError error) { showTip(error.getPlainDescription(true)) ; // 获取错误码描述 Log. e(TAG, "error.getPlainDescription(true)==" + error.getPlainDescription(true )); } // 开始录音 public void onBeginOfSpeech() { showTip(" 开始录音 "); } //volume 音量值0~30, data音频数据 public void onVolumeChanged(int volume, byte[] data) { showTip(" 声音改变了 "); } // 结束录音 public void onEndOfSpeech() { showTip(" 结束录音 "); } // 扩展用接口 public void onEvent(int eventType, int arg1 , int arg2, Bundle obj) { } }; private void showTip (String data) { Toast.makeText( this, data, Toast.LENGTH_SHORT).show() ; } }如果设备是android 5.0及其以上,需要将工程中的armeabi和armeabi-v7a文件夹中都放上libmsc.so,如果你下载的SDK中没有armeabi-v7a对应的库,可以将armeabi中的libmsc.so复制一份到armeabi-v7a文件夹中。<Button android:layout_width="match_parent" android:layout_height="wrap_content" android:id="@+id/btn_startspeech" android:text="语音识别 " /> <Button android:id="@+id/btn_startspeektext" android:text="语音合成" android:layout_width="match_parent" android:layout_height="wrap_content" /> <EditText android:id="@+id/et_input" android:layout_margin="10dp" android:layout_width="match_parent" android:layout_height="80dp" android:hint="请输入文本信息 ..." />