Android下通过pocketsphinx实现离线语音识别的环境搭建和demo运行

这篇博客介绍了在Android环境下使用pocketsphinx进行离线语音识别的步骤,包括环境搭建、遇到的问题及解决方法。作者分享了在Linux和Windows下搭建环境的经验,强调了识别率提升的重要性,并提供了相关资源链接。
摘要由CSDN通过智能技术生成

前言:因为在学校要做语音相关的开发,并且应用环境多数是在无网络状态下,故要用到离线语音识别。经过一番查阅,发现目前在做离线语音识别的,尤其是android环境下的离线语音识别的人确实很少。(插一句如果想要实现离线语音合成的可以看一下中科院慧声语音工作室提供的开放平台)在查阅资料期间联系过许多android方面经验丰富的前辈、朋友,但都没有接触过这个。因为是0基础,所以基本碰到一个东西就是新的,需要一点一点的学,不过即使现在能够成功运行demo,但也只是大体上的了解,主要是应用,用到什么学什么,并不深入。

下面,我将根据自己搭建环境和运行中遇到的问题,说一下自己的问题和解决方法,最后给出相关下载链接,给大家节省些时间,希望能帮助到遇到类似问题的朋友,也希望能互相学习交流。

由于许多朋友需要源代码,我便将我用过的源代码及声学模型和词典放到了csdn资源中供大家下载地址如下所示:http://download.csdn.net/detail/loveannuoa/5386461  这个工程和下面说的第二个链接代码是一样的,只是声学模型和词典不同,这个工程的数据是我自己弄的。

另外,本篇文章主要说的再linux下搭建环境,windows下的环境我也搭建完成,如果有不明白的可以先看一下我的另一篇关于windows下搭建环境的文章:http://blog.csdn.net/loveannuoa/article/details/8689478

 

重要提示:有一点之前没有说明,在整个环境配置中涉及了两个demo,一个是官方提供的即http://sourceforge.net/projects/cmusphinx/files/?source=navbar

  • 3
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 74
    评论
Android Studio是一款用于开发Android应用程序的集成开发环境。它可以通过各种API和工具来实现各种功能,包括语音识别。使用demo实现语音识别是一种较为简单的方法。下面我将简要介绍如何使用demo实现语音识别。 首先,你需要在Android Studio中创建一个新的项目。然后,通过向项目中添加必要的权限和依赖项,来启用语音识别功能。具体的权限和依赖项可以通过引入相关的API来实现,比如Google Speech to Text API或Android自身的语音识别API。 在项目中创建一个示例活动(Activity),用于实现语音识别功能。你可以在这个活动中添加一个按钮或其他触发事件的UI元素,然后通过点击触发事件来开始语音识别。 在触发事件的方法中,你需要调用相关的API来实现语音识别。具体的代码可以在API的官方文档中找到,并根据自己的需求进行适当的修改。通常,你需要创建一个语音识别Intent,并对返回的结果进行处理。 在处理语音识别结果时,你可以选择将结果显示在界面上,或者执行其他操作,比如存储结果或调用其他API。 最后,通过编译和运行你的应用程序,你就可以在Android设备上测试语音识别功能了。 总结起来,通过在Android Studio中使用demo实现语音识别,你需要创建一个新的项目,添加必要的权限和依赖项,创建一个示例活动,调用相关的API来实现语音识别,处理识别结果,并在设备上进行测试。这是一个简单的方法,你可以根据自己的需求进行进一步的定制和扩展。
评论 74
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值