另一个语音识别的例子

        这个例子实现的功能和上衣个基本类似,只不过识别引擎换成了Google自家的识别器了。

        讯飞的语音云主要还是在普通话方面的识别,识别英语的话就会比较坑(比如你想语音输入banana基本是不可能),Google可以识别多种语言,英语当然是毫无压力啦。

效果:





        例子中需要注意的一个问题是:startActivity(Intent)和startActivityForResult(Intent,int)的区别使用。

startActivity(Intent) 方法可以用来启动一个新的 activity ,这个 activity 将被放置在 activity 栈的栈顶。这个方法只有一个参数 Intent ,这个参数描述了将被执行的 activity 。
      有时候你希望在一个 activity 结束时得到它返回的结果。举个例子,你可能启动一个 activity 来让用户从通讯簿中选择一个人;当它结束的时候将会返回这个所选择的人。为了得到这个返回的信息,你可以使用 startSubActivity(Intent, int) 这个方法来启动新的 activity ,第二个整形参数将会作为这次调用的识别标记。这个 activity 返回的结果你可以通过 onActivityResult(int, int, String, Bundle) 方法来获得,此方法的第一个参数就是之前调用所使用的识别标记。
      当 activity 退出的时候,它可以调用 setResult(int) 来将数据返回给他的父进程。这个方法必须提供一个结果码,这个结果码可以使标准结果 RESULT_CANCELED, RESULT_OK ,也可以是其他任何从 RESULT_FIRST_USER 开始的自定义值。此外,它还可以返回一段字符串(经常是一段数据的 URL 地址),一个包含它所有希望值的 Bundle 。这些信息都会在父 activity 的回调函数 Activity.onActivityResult() 中出现,并连同最初提供的识别标记一起(此处有些拗口,意思其实就是子activity 返回的内容、返回码、识别标记都将作为参数,按照不同的返回情况来调用父activity 的Activity.onActivityResult() 方法,以实现出现各种返回时父activity 做出响应的处理)。

代码清单:

package com.example.googlevoice;

import java.util.List;

import android.app.Activity;
import android.content.Intent;
import android.content.pm.PackageManager;
import android.content.pm.ResolveInfo;
import android.os.Bundle;
import android.speech.RecognizerIntent;
import android.view.View;
import android.view.View.OnClickListener;
import android.widget.ArrayAdapter;
import android.widget.Button;
import android.widget.ListView;
import android.widget.TextView;

public class MainActivity extends Activity implements OnClickListener{
	private Button btn ;
	private TextView myTextView;
	private static final int REQUEST_CODE = 1;
	
    @Override
    public void onCreate(Bundle savedInstanceState) {
        super.onCreate(savedInstanceState);
        setContentView(R.layout.activity_main);
        
        btn = (Button) this.findViewById(R.id.btn);
        myTextView = (TextView) this.findViewById(R.id.ResultText);
        
        /**
         * 下面是判断当前手机是否支持语音识别功能
         */
        PackageManager pm = getPackageManager();
        List<ResolveInfo> list = pm.queryIntentActivities(new Intent(RecognizerIntent.ACTION_RECOGNIZE_SPEECH), 0);
        if(list.size()!=0)
        {
        	btn.setOnClickListener(this);
        }else{
        	btn.setEnabled(false);
        	btn.setText("当前语音识别设备不可用...");
        }
        
    }

	public void onClick(View v) {
		if(v.getId()==R.id.btn)
		{
			/**
			 * 启动手机内置的语言识别功能
			 */
			Intent intent = new Intent(RecognizerIntent.ACTION_RECOGNIZE_SPEECH);
			intent.putExtra(RecognizerIntent.EXTRA_LANGUAGE_MODEL,"en-US");  //设置为当前手机的语言类型
			intent.putExtra(RecognizerIntent.EXTRA_PROMPT, "请说话,我识别");//出现语言识别界面上面需要显示的提示
			startActivityForResult(intent,REQUEST_CODE);
		}
	}

	@Override
	protected void onActivityResult(int requestCode, int resultCode, Intent data) {
		/**
		 * 回调获取从谷歌得到的数据
		 */
		if(requestCode==REQUEST_CODE&&resultCode==RESULT_OK)
		{
			
			List<String> list = data.getStringArrayListExtra(RecognizerIntent.EXTRA_RESULTS);
			//只选取第一个结果显示
			myTextView.setText(list.get(0));
		}
		super.onActivityResult(requestCode, resultCode, data);
	}
	
	
	

}

<?xml version="1.0" encoding="utf-8"?>
<RelativeLayout xmlns:android="http://schemas.android.com/apk/res/android"
    android:layout_width="fill_parent"
    android:layout_height="fill_parent"
    android:orientation="vertical" >

    <TextView
        android:id="@+id/ResultText"
        android:layout_width="fill_parent"
        android:layout_height="wrap_content"
        android:text="ResultText" />



    <LinearLayout
        android:id="@+id/bottom"
        android:layout_width="fill_parent"
        android:layout_height="wrap_content"
        android:layout_alignParentBottom="true"
        android:orientation="horizontal" >

        <Button
            android:id="@+id/btn"
            android:layout_width="fill_parent"
            android:layout_height="wrap_content"
            android:text="GoogleVoice" />
    </LinearLayout>

</RelativeLayout>


参考资料:http://blog.csdn.net/vipa1888/article/details/7023928


  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Microsoft Speech SDK11语音识别例子是一种基于微软语音技术的软件开发工具包,它提供了一系列语音识别示例,为开发者在应用程序中快速实现语音识别功能提供了易用、高效的开发方案。 通过使用Microsoft Speech SDK11语音识别例子开发者可以通过API调用实现语音输入文字的功能,例如,在Microsoft Visual Studio中创建Windows应用程序,通过调用语音识别API实现语音命令控制功能。开发者可以定制识别的语法,指定具体的命令,来实现特定的应用程序功能。 另外,Microsoft Speech SDK11语音识别例子还提供了多语言、多种声音的语音识别支持,并且支持实时录制、识别、翻译和文本转换等功能。它还支持对不同声音和背景噪声的识别,并支持自定义语音识别模型,以提高识别准确率。 此外,Microsoft Speech SDK11语音识别例子还可以支持与其他技术集成,如机器翻译、自然语言处理等,以实现更为复杂的应用程序。 总的来说,Microsoft Speech SDK11语音识别例子提供了快速、便捷实现语音识别功能的解决方案,有助于开发者在应用程序中加入语音交互的功能,提高应用程序的用户体验。 ### 回答2: Microsoft Speech SDK11是一种先进的语音技术,它能够将语音转化为文本,帮助人们更方便地进行电脑操作。 举个例子,如果你正在开发一个语音控制家电设备的应用,那么使用Microsoft Speech SDK11就能够实现语音识别并控制设备的功能。例如,你可以通过对SDK的调用来实现“打开电视”、“调整音量”等听命于口令的指令,从而使家庭控制更加智能便捷。 此外,Microsoft Speech SDK11还可以应用于其他方面,比如语音翻译、文字转语音、语音命令控制等等。例如,你可以通过连通SDK的API接口,实现对应用程序的语音交互和操作。随着科技的发展,像Microsoft Speech SDK11这样的语音技术将会更加普遍地存在于我们和我们的设备之间,在互联网、智能家居、医疗健康等方面发挥更大的作用和贡献。 ### 回答3: Microsoft Speech SDK11是一款由微软公司开发语音识别软件,其具有高效精准识别的特点,并且支持多个语言的识别功能。 这款软件可以应用于许多领域,例如语音助手、智能家居、语音控制等。下面我们以语音助手为例来简单介绍一下Microsoft Speech SDK11的使用。 语音助手是一款具有语音识别和语音合成功能的应用程序,用户可以通过语音命令让助手完成一些操作。首先,需要添加SDK库文件到我们的项目中,以便使用SDK提供的功能。 接下来,我们需要设置语音输入设备和输出设备,我们可以使用SpeechRecognitionEngine类和SpeechSynthesizer类来完成设备的设置。通过SpeechRecognitionEngine类,我们可以实现对语音输入的监听和处理,而通过SpeechSynthesizer类,就可以实现语音合成的功能。 完成设备设置后,我们就可以开始实现语音识别和语音合成的功能了。比如,当用户说出“打开微信”,语音助手就可以通过语音识别识别用户的指令,并调用微信应用程序打开微信;而当用户说出“今天天气怎么样”,语音助手就可以通过调用天气预报API获取天气信息,并通过语音合成的方式将结果读出。 总的来说,Microsoft Speech SDK11是一款高效精准的语音识别软件,可以应用于许多领域。通过各种实际的操作,我们可以更好地了解SDK的功能和应用。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值