因为最近在研究语音识别,所以借鉴了一下 CreAmazing 网友的帖子
Android系统本身其实提供有语音识别模块,在它的APIDemo里也有关于语音识别的sample,不过经过大多开发者的真机测试,发现很多真机并不能使用哪个sample,在网上查找了一下原因,大部分是因为开发者在刷机的时候,大部分的ROM都阉割掉了语音识别和语音合成TTS(Text To Speech)部分,所以运行sample的时候会有异常抛出。
如果不用google提供的语音识别,要怎么实现语音识别喃?科大讯飞的语音API就可以到,这里是关于它的官网介绍:http://dev.voicecloud.cn/developer.php?vt=1 下面我就用一个简单的实例来介绍一下它基本的使用
首先做一个简单的界面
上面的TextView显示识别的内容,三个Button分别为语音识别,语音合成并朗读和语音后台朗读三个功能
布局文件:
<font color="#000"><font face="Arial"><?xml version="1.0" encoding="utf-8"?> <LinearLayout xmlns:android="http://schemas.android.com/apk/res/android" android:layout_width="fill_parent" android:layout_height="fill_parent" android:orientation="vertical" > <EditText android:id="@+id/et" android:layout_width="fill_parent" android:layout_height="wrap_content" /> <Button android:id="@+id/bt_recognize" android:layout_width="fill_parent" android:layout_height="wrap_content" android:gravity="center" android:text="Recognize" /> <Button android:id="@+id/bt_speek" android:layout_width="fill_parent" android:layout_height="wrap_content" android:gravity="center" android:text="Speek" /> <Button android:id="@+id/bt_speek_bg" android:layout_width="fill_parent" android:layout_height="wrap_content" android:gravity="center" android:text="Speek-Background" /> </LinearLayout> </font></font>
复制代码
Activity代码如下:
<font color="#000"><font face="Arial">package sina.CreAmazing.voice; import java.util.ArrayList; import com.iflytek.speech.RecognizerResult; import com.iflytek.speech.SpeechError; import com.iflytek.speech.SynthesizerPlayer; import com.iflytek.ui.RecognizerDialog; import com.iflytek.ui.RecognizerDialogListener; import com.iflytek.ui.SynthesizerDialog; import com.iflytek.ui.SynthesizerDialogListener; import android.app.Activity; import android.os.Bundle; import android.view.View; import android.view.View.OnClickListener; import android.widget.Button; import android.widget.EditText; public class Voice1Activity extends Activity { /** Called when the activity is first created. */ // 声明控件 private EditText et; private Button bt1; private Button bt2; private Button bt3; //全局只设一个String,因为String为final类型,这样做节省内存 String text = ""; private static final String APPID = "appid=4f2d3a06"; @Override public void onCreate(Bundle savedInstanceState) { super.onCreate(savedInstanceState); setContentView(R.layout.main); bt1 = (Button) findViewById(R.id.bt_recognize); bt2 = (Button) findViewById(R.id.bt_speek); bt3 = (Button) findViewById(R.id.bt_speek_bg); et = (EditText) findViewById(R.id.et); // 初始化监听器 initListener(); } private void initListener() { bt1.setOnClickListener(myListener); bt2.setOnClickListener(myListener); bt3.setOnClickListener(myListener); } OnClickListener myListener = new OnClickListener() { @Override public void onClick(View v) { // 根据不同View的id调用不同方法 switch (v.getId()) { case R.id.bt_recognize: // 这是语言识别部分,最重要的实例化一个 // RecognizerDialog并把你在官方网站申请的appid填入进去,非法id不能进行识别 RecognizerDialog isrDialog = new RecognizerDialog( Voice1Activity.this, APPID); /* * 设置引擎目前支持五种 ”sms”:普通文本转写 “poi”:地名搜索 ”vsearch”:热词搜索 * ”video”:视频音乐搜索 ”asr”:命令词识别 */ isrDialog.setEngine("sms", null, null); isrDialog.setListener(recoListener); isrDialog.show(); break; case R.id.bt_speek: // 这是语言合成部分 同样需要实例化一个SynthesizerDialog ,并输入appid SynthesizerDialog syn = new SynthesizerDialog( Voice1Activity.this, APPID); syn.setListener(new SynthesizerDialogListener() { @Override public void onEnd(SpeechError arg0) { } }); // 根据EditText里的内容实现语音合成 syn.setText(et.getText().toString(), null); syn.show(); break; case R.id.bt_speek_bg: // 这是后台朗读,实例化一个SynthesizerPlayer SynthesizerPlayer player = SynthesizerPlayer .createSynthesizerPlayer(Voice1Activity.this, APPID); // 设置语音朗读者,可以根据需要设置男女朗读,具体请看api文档和官方论坛 player.setVoiceName("vivixiaomei"); player.playText(et.getText().toString(), "ent=vivi21,bft=5", null); break; default: break; } } }; // 语言识别监听器,有两个方法 RecognizerDialogListener recoListener = new RecognizerDialogListener() { @Override public void onResults(ArrayList<RecognizerResult> results, boolean isLast) { // 服务器识别完成后会返回集合,我们这里就只得到最匹配的那一项 text += results.get(0).text; System.out.println(text); } @Override public void onEnd(SpeechError error) { if (error == null) { // 完成后就把结果显示在EditText上 et.setText(text); } } }; }</font></font>
复制代码
最后别忘了把科大讯飞的jar包引入工程的buildPath里面。
运行画面:
语音识别:
语音合成:
其实功能还不止这些,还有数据上传,关键字识别,获取上行下行流量,设置采样频率设置发音人,语速,音量等等等,如果感兴趣可以自己深入研究。
接上文,如何实现语音控制呢?比如当我们说天气的时候,界面会自动呈现的天气预报的界面,当我们说UC的时候,会自动跳转到UC浏览器上等等。其实方法很简单,仅仅需要对识别到的字符串进行判断,当它符合特定的字符串是就对Activity进行跳转,跳转到自己写好的Activity上,或者跳转到已安装的应用上,下面来看具体怎么实现:
首先我们在layout布局里增加一个ToggleButton用于开关语音控制:
然后我们就在获取结果的RecognizerDialogListener下面改变几行代码:
<font color="#333333"><font face="Arial">RecognizerDialogListener recoListener = new RecognizerDialogListener() { @Override public void onResults(ArrayList<RecognizerResult> results, boolean isLast) { //新增加了一个ToggleButton tb,首先检查tb是否被按下,如果被按下才进行语言控制,没被按下就进行文字识别 if (tb.isChecked()) { //doVoice方法就是进行识别 doVoice(results); } else { // 服务器识别完成后会返回集合,我们这里就只得到最匹配的那一项 text += results.get(0).text; System.out.println(text); } }</font></font>
复制代码
如果进行语言识别就把返回的结果传入上面的doVoice方法里,doVoice如下:
<font color="#333333"><font face="Arial">//首先迭代结果,然后获取每个结果,并进行对比,如果包含有特定字符串,那么就执行相应Intent跳转。 //注意 凡是Intent能办到的(发邮件,跳到已安装应用,拨号,发短信,发彩信,浏览网页,播放多媒体。。。。),它就都能办到。 private void doVoice(ArrayList<RecognizerResult> results) { Intent i = new Intent(); for(RecognizerResult result : results){ if(result.text.contains("天气")){ //天气界面的跳转 i.setClass(Voice1Activity.this, Weather.class); startActivity(i); }else if(result.text.contains("新闻")){ //新闻界面的跳转 i.setClass(Voice1Activity.this, News.class); startActivity(i); }else if(result.text.contains("短信")){ //短信界面的跳转 i.setAction(Intent.ACTION_VIEW); i.setType("vnd.android-dir/mms-sms"); startActivity(i); }else{ //如果没有相应指令就用Toast提示用户 Toast.makeText(Voice1Activity.this, "无法识别", Toast.LENGTH_SHORT).show(); } } } </font></font>
复制代码
如下是做得相应简单界面:
其实在主UI里执行那么耗时操作比如语音的识别与控制并不是很好的方法,其实完全可以把这些耗时的操作交给Service来做只要在主Activity的开始,启动一个Service,定义好各种逻辑接口并把那些耗时的操作交给Service就行了,在Service里面实现语音的识别,控制和逻辑的跳转。
转自:http://www.apkbus.com/android-141888-1-1.html