Google Voice 语音搜索

在android应用中加入语音功能,将使应用更加的实用、方便。google的语音使用还是比较简单的,下面给大家介绍一下使用方法:

1、下载Google Voice的APK安装包,在手机中进行安装。

2、Android调用Google Voice代码

private static final int RESULT_FROM_VOICE = 1;

(1) 启动谷歌语音

	/**
	 * 启动谷歌语音
	 */
	private void startGoogleVoice() {
		try{
			Intent intent = new Intent(RecognizerIntent.ACTION_RECOGNIZE_SPEECH);
	        intent.putExtra(RecognizerIntent.EXTRA_LANGUAGE_MODEL,
	                RecognizerIntent.LANGUAGE_MODEL_FREE_FORM);
	        intent.putExtra(RecognizerIntent.EXTRA_PROMPT, "开始语音");
	        startActivityForResult(intent, RESULT_FROM_VOICE);
		}catch(ActivityNotFoundException e){
			// 下载谷歌语音APK包,并安装。
			FileDownload fd = new FileDownload(ExpressActivity.this, 
					ConstData.googleVoiceUrl, "下载谷歌语音引擎");
			fd.showDownloadNoticeDialog();
		}
    }

(2)接收返回值

重写Activity的onActivityResult方法

	//返回值
	@Override
	protected void onActivityResult(int requestCode, int resultCode, Intent data) {
		if(data == null)
			return;
		
		//谷歌语音
		if(requestCode == RESULT_FROM_VOICE){
			 matches = data.getStringArrayListExtra(
					 RecognizerIntent.EXTRA_RESULTS);
			 if(matches != null && matches.size() > 0){
				 Dialog dialog = new GoogleVoiceDialog(ExpressActivity.this,
	                     R.style.GoogleVoiceDialog);
	             dialog.show();
			 }
		}
		super.onActivityResult(requestCode, resultCode, data);
	}

3、效果图


Hugging Face是一个自然语言处理(NLP)模型和工具库的开源社区,提供了许多用于加载和使用预训练模型的工具。在Hugging Face中,多卡加载模型可以通过使用`torch.nn.DataParallel`或`torch.nn.parallel.DistributedDataParallel`来实现。 1. 使用`torch.nn.DataParallel`加载模型: ```python from transformers import BertModel, BertTokenizer import torch # 加载模型和分词器 model_name = "bert-base-uncased" model = BertModel.from_pretrained(model_name) tokenizer = BertTokenizer.from_pretrained(model_name) # 将模型放在多个GPU上 model = torch.nn.DataParallel(model) # 使用模型进行推理 inputs = tokenizer("Hello, how are you?", return_tensors="pt") outputs = model(**inputs) ``` 2. 使用`torch.nn.parallel.DistributedDataParallel`加载模型: ```python from transformers import BertModel, BertTokenizer import torch import torch.distributed as dist from torch.nn.parallel import DistributedDataParallel # 初始化分布式训练环境 dist.init_process_group(backend='nccl') # 加载模型和分词器 model_name = "bert-base-uncased" model = BertModel.from_pretrained(model_name) tokenizer = BertTokenizer.from_pretrained(model_name) # 将模型放在多个GPU上 model = DistributedDataParallel(model) # 使用模型进行推理 inputs = tokenizer("Hello, how are you?", return_tensors="pt") outputs = model(**inputs) ``` 请注意,以上代码只是简单示例,实际使用时需要根据自己的环境和需求进行相应的配置和调整。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值