Android-调用自带的谷歌语音识别技术(一)

这篇文章记录下安卓自带的谷歌的语音识别技术。
谷歌作为IT巨头特别是安卓之父,语音搜索这个功能无疑是强大的。
在安卓中实现语音识别的代码很简单,我们要实现的就是调用谷歌api获取搜索结果,然后根据这个结果做自己想要的功能。
Android 中主要通过RecognizerIntent来实现语音识别。先来介绍下RecognizerIntent的常量

常量简介
ACTION_RECOGNIZE_SPEECH开启语音识别调用
ACTION_WEB_SEARCH开启网络语音识别,结果以网页的形式显示
EXTRA_LANGUAGE_MODEL语音识别的模式
EXTRA_MAX_RESULTS返回的最大结果
EXTRA_PROMPT设置用户可以开始语音的提示语
EXTRA_RESULTS将返回的字符串集中到一个list
LANGUAGE_MODEL_FREE_FORM在一种模式上的自由语音
LANGUAGE_MODEL_WEB_SEARCH使用语言模型在web上搜索
RESULT_AUDIO_ERROR返回结果时,音频遇到错误
RESULT_CLIENT_ERROR返回结果时,客户端遇到错误
RESULT_NETWORK_ERROR返回结果时,网络遇到错误
RESULT_NO_MATCH未知错误
RESULT_SERVER_ERROR返回结果时,服务端遇到错误

看一下调用谷歌之后的效果图

这里写图片描述

注意:

1.不支持谷歌搜索服务的手机不能使用此功能,比如我的opp手机,用的是三星的测试机,在使用这个功能的时候会检测,是否能够下载
2.此功能需要联网并且手机翻墙,当我使用电脑翻墙之后分享无线网,亲测不可以!这里推荐手机翻墙软件介绍的网址
3.在AndroidManifest中设置网络权限

<uses-permission android:name="android.permission.INTERNET" />

下面是代码

public class MainActivity extends Activity {

    protected static final int RESULT_SPEECH = 1;

    private ImageButton btnSpeak;
    private TextView txtText;

    @Override
    protected void onCreate(Bundle savedInstanceState) {
        super.onCreate(savedInstanceState);
        setContentView(R.layout.activity_main);
        txtText = (TextView) findViewById(R.id.txtText);
        btnSpeak = (ImageButton) findViewById(R.id.btnSpeak);
        btnSpeak.setOnClickListener(new View.OnClickListener() {
            @Override
            public void onClick(View v) {
                //开启语音识别功能
                Intent intent = new Intent(
                        RecognizerIntent.ACTION_RECOGNIZE_SPEECH);
                //设置模式,目前设置的是自由识别模式
                intent.putExtra(RecognizerIntent.EXTRA_LANGUAGE_MODEL, RecognizerIntent.LANGUAGE_MODEL_FREE_FORM);
                //提示语言开始文字,就是效果图上面的文字
                intent.putExtra(RecognizerIntent.EXTRA_PROMPT, "Please start your voice");
                开始识别,这里检测手机是否支持语音识别并且捕获异常
                try {
                    startActivityForResult(intent, RESULT_SPEECH);
                    txtText.setText("");
                } catch (ActivityNotFoundException a) {
                    Toast t = Toast.makeText(getApplicationContext(),
                            "Opps! Your device doesn't support Speech to Text",
                            Toast.LENGTH_SHORT);
                    t.show();
                }
            }
        });

    }

    //接收返回的结果
    @Override
    protected void onActivityResult(int requestCode, int resultCode, Intent data) {
        super.onActivityResult(requestCode, resultCode, data);
        switch (requestCode) {
            case RESULT_SPEECH: {
                if (resultCode == RESULT_OK && data != null) {
                //返回结果是一个list,我们一般取的是第一个最匹配的结果
                    ArrayList<String> text = data
                            .getStringArrayListExtra(RecognizerIntent.EXTRA_RESULTS);

                    txtText.setText(text.get(0));
                }
                break;
            }

        }
    }

下面附上在github上面找的一个小demo
https://github.com/bradleybossard/android-speech-to-text-demo

  • 2
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
使用百度实时语音识别的WebSocket API进行Java调用,你需要以下步骤: 1. 先确认你已经在百度智能云平台上创建了自己的应用,并开通了实时语音识别的服务。 2. 下载并导入Java WebSocket客户端库,可以使用Java-WebSocket库,该库可以通过Maven等工具进行导入。 3. 创建一个WebSocket客户端连接,并连接到百度实时语音识别的WebSocket API地址。你可以使用下面的代码来创建和连接WebSocket: ``` import org.java_websocket.client.WebSocketClient; import org.java_websocket.handshake.ServerHandshake; import java.net.URI; import java.net.URISyntaxException; public class ASRClient extends WebSocketClient { public ASRClient(URI serverUri) { super(serverUri); } @Override public void onOpen(ServerHandshake handshakedata) { System.out.println("Connected to server."); } @Override public void onMessage(String message) { // 处理接收到的识别结果 System.out.println("Received message: " + message); } @Override public void onClose(int code, String reason, boolean remote) { System.out.println("Connection closed."); } @Override public void onError(Exception ex) { ex.printStackTrace(); } public static void main(String[] args) { try { ASRClient client = new ASRClient(new URI("wss://asr.baidu.com")); client.connect(); } catch (URISyntaxException e) { e.printStackTrace(); } } } ``` 4. 在`onOpen`方法中,你可以向WebSocket发送请求进行语音识别。你可以使用`send`方法将音频数据发送到服务器。音频数据需要转换为PCM格式,并按照分片大小进行分片发送。 ``` // 发送开始指令 client.send("{\"cmd\":\"asr.start\",\"format\":\"pcm\",\"rate\":16000,\"token\":\"YOUR_ACCESS_TOKEN\",\"cuid\":\"YOUR_USER_ID\",\"len\":0}"); // 发送音频数据分片 client.send(PARTIAL_AUDIO_DATA); // 发送结束指令 client.send("{\"cmd\":\"asr.finish\"}"); ``` 5. 在`onMessage`方法中,你可以处理识别结果。API会实时返回识别结果的JSON数据,你可以根据需要进行解析和处理。 完成了以上步骤,你就可以使用百度实时语音识别的WebSocket API进行Java调用了。记得在代码中替换`YOUR_ACCESS_TOKEN`和`YOUR_USER_ID`为你自己的访问令牌和用户ID。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值