Android系统本身其实提供有语音识别模块,在它的APIDemo里也有关于语音识别的sample,不过经过大多开发者的真机测试,发现很多真机并不能使用哪个sample,在网上查找了一下原因,大部分是因为开发者在刷机的时候,大部分的ROM都阉割掉了语音识别和语音合成TTS(Text To Speech)部分,所以运行sample的时候会有异常抛出。
如果不用google提供的语音识别,要怎么实现语音识别喃?科大讯飞的语音API就可以到,这里是关于它的官网介绍:http://dev.voicecloud.cn/developer.php?vt=1 下面我就用一个简单的实例来介绍一下它基本的使用
首先做一个简单的界面
上面的TextView显示识别的内容,三个Button分别为语音识别,语音合成并朗读和语音后台朗读三个功能
布局文件:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
|
<font color=
"#000"
><font face=
"Arial"
><?xml version=
"1.0"
encoding=
"utf-8"
?>
<LinearLayout xmlns:android=
"http://schemas.android.com/apk/res/android"
android:layout_width=
"fill_parent"
android:layout_height=
"fill_parent"
android:orientation=
"vertical"
>
<EditText
android:id=
"@+id/et"
android:layout_width=
"fill_parent"
android:layout_height=
"wrap_content"
/>
<Button
android:id=
"@+id/bt_recognize"
android:layout_width=
"fill_parent"
android:layout_height=
"wrap_content"
android:gravity=
"center"
android:text=
"Recognize"
/>
<Button
android:id=
"@+id/bt_speek"
android:layout_width=
"fill_parent"
android:layout_height=
"wrap_content"
android:gravity=
"center"
android:text=
"Speek"
/>
<Button
android:id=
"@+id/bt_speek_bg"
android:layout_width=
"fill_parent"
android:layout_height=
"wrap_content"
android:gravity=
"center"
android:text=
"Speek-Background"
/>
</LinearLayout> </font></font>
|
Activity代码如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
|
<font color=
"#000"
><font face=
"Arial"
>
package
sina.CreAmazing.voice;
import
java.util.ArrayList;
import
com.iflytek.speech.RecognizerResult;
import
com.iflytek.speech.SpeechError;
import
com.iflytek.speech.SynthesizerPlayer;
import
com.iflytek.ui.RecognizerDialog;
import
com.iflytek.ui.RecognizerDialogListener;
import
com.iflytek.ui.SynthesizerDialog;
import
com.iflytek.ui.SynthesizerDialogListener;
import
android.app.Activity;
import
android.os.Bundle;
import
android.view.View;
import
android.view.View.OnClickListener;
import
android.widget.Button;
import
android.widget.EditText;
public
class
Voice1Activity
extends
Activity {
/** Called when the activity is first created. */
// 声明控件
private
EditText et;
private
Button bt1;
private
Button bt2;
private
Button bt3;
//全局只设一个String,因为String为final类型,这样做节省内存
String text =
""
;
private
static
final
String APPID =
"appid=4f2d3a06"
;
@Override
public
void
onCreate(Bundle savedInstanceState) {
super
.onCreate(savedInstanceState);
setContentView(R.layout.main);
bt1 = (Button) findViewById(R.id.bt_recognize);
bt2 = (Button) findViewById(R.id.bt_speek);
bt3 = (Button) findViewById(R.id.bt_speek_bg);
et = (EditText) findViewById(R.id.et);
// 初始化监听器
initListener();
}
private
void
initListener() {
bt1.setOnClickListener(myListener);
bt2.setOnClickListener(myListener);
bt3.setOnClickListener(myListener);
}
OnClickListener myListener =
new
OnClickListener() {
@Override
public
void
onClick(View v) {
// 根据不同View的id调用不同方法
switch
(v.getId()) {
case
R.id.bt_recognize:
// 这是语言识别部分,最重要的实例化一个
// RecognizerDialog并把你在官方网站申请的appid填入进去,非法id不能进行识别
RecognizerDialog isrDialog =
new
RecognizerDialog(
Voice1Activity.
this
, APPID);
/*
* 设置引擎目前支持五种 ”sms”:普通文本转写 “poi”:地名搜索 ”vsearch”:热词搜索
* ”video”:视频音乐搜索 ”asr”:命令词识别
*/
isrDialog.setEngine(
"sms"
,
null
,
null
);
isrDialog.setListener(recoListener);
isrDialog.show();
break
;
case
R.id.bt_speek:
// 这是语言合成部分 同样需要实例化一个SynthesizerDialog ,并输入appid
SynthesizerDialog syn =
new
SynthesizerDialog(
Voice1Activity.
this
, APPID);
syn.setListener(
new
SynthesizerDialogListener() {
@Override
public
void
onEnd(SpeechError arg0) {
}
});
// 根据EditText里的内容实现语音合成
syn.setText(et.getText().toString(),
null
);
syn.show();
break
;
case
R.id.bt_speek_bg:
// 这是后台朗读,实例化一个SynthesizerPlayer
SynthesizerPlayer player = SynthesizerPlayer
.createSynthesizerPlayer(Voice1Activity.
this
, APPID);
// 设置语音朗读者,可以根据需要设置男女朗读,具体请看api文档和官方论坛
player.setVoiceName(
"vivixiaomei"
);
player.playText(et.getText().toString(),
"ent=vivi21,bft=5"
,
null
);
break
;
default
:
break
;
}
}
};
// 语言识别监听器,有两个方法
RecognizerDialogListener recoListener =
new
RecognizerDialogListener() {
@Override
public
void
onResults(ArrayList<RecognizerResult> results,
boolean
isLast) {
// 服务器识别完成后会返回集合,我们这里就只得到最匹配的那一项
text += results.get(
0
).text;
System.out.println(text);
}
@Override
public
void
onEnd(SpeechError error) {
if
(error ==
null
) {
// 完成后就把结果显示在EditText上
et.setText(text);
}
}
};
}</font></font>
|
最后别忘了把科大讯飞的jar包引入工程的buildPath里面,
其实功能还不止这些,还有数据上传,关键字识别,获取上行下行流量,设置采样频率设置发音人,语速,音量等等等,如果感兴趣可以自己深入研究。
接上文,如何实现语音控制呢?比如当我们说天气的时候,界面会自动呈现的天气预报的界面,当我们说UC的时候,会自动跳转到UC浏览器上等等。其实方法很简单,仅仅需要对识别到的字符串进行判断,当它符合特定的字符串是就对Activity进行跳转,跳转到自己写好的Activity上,或者跳转到已安装的应用上,下面来看具体怎么实现:
首先我们在layout布局里增加一个ToggleButton用于开关语音控制:
然后我们就在获取结果的RecognizerDialogListener下面改变几行代码:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
|
<font color=
"#333333"
><font face=
"Arial"
>RecognizerDialogListener recoListener =
new
RecognizerDialogListener() {
@Override
public
void
onResults(ArrayList<RecognizerResult> results,
boolean
isLast) {
//新增加了一个ToggleButton tb,首先检查tb是否被按下,如果被按下才进行语言控制,没被按下就进行文字识别
if
(tb.isChecked()) {
//doVoice方法就是进行识别
doVoice(results);
}
else
{
// 服务器识别完成后会返回集合,我们这里就只得到最匹配的那一项
text += results.get(
0
).text;
System.out.println(text);
}
}</font></font>
|
如果进行语言识别就把返回的结果传入上面的doVoice方法里,doVoice如下
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
|
<font color=
"#333333"
><font face=
"Arial"
>
//首先迭代结果,然后获取每个结果,并进行对比,如果包含有特定字符串,那么就执行相应Intent跳转。
//注意 凡是Intent能办到的(发邮件,跳到已安装应用,拨号,发短信,发彩信,浏览网页,播放多媒体。。。。),它就都能办到。
private
void
doVoice(ArrayList<RecognizerResult> results) {
Intent i =
new
Intent();
for
(RecognizerResult result : results){
if
(result.text.contains(
"天气"
)){
//天气界面的跳转
i.setClass(Voice1Activity.
this
, Weather.
class
);
startActivity(i);
}
else
if
(result.text.contains(
"新闻"
)){
//新闻界面的跳转
i.setClass(Voice1Activity.
this
, News.
class
);
startActivity(i);
}
else
if
(result.text.contains(
"短信"
)){
//短信界面的跳转
i.setAction(Intent.ACTION_VIEW);
i.setType(
"vnd.android-dir/mms-sms"
);
startActivity(i);
}
else
{
//如果没有相应指令就用Toast提示用户
Toast.makeText(Voice1Activity.
this
,
"无法识别"
, Toast.LENGTH_SHORT).show();
}
}
} </font></font>
|
其实在主UI里执行那么耗时操作比如语音的识别与控制并不是很好的方法,其实完全可以把这些耗时的操作交给Service来做只要在主Activity的开始,启动一个Service,定义好各种逻辑接口并把那些耗时的操作交给Service就行了,在Service里面实现语音的识别,控制和逻辑的跳转。