🏡前言
由于公司有个Web项目需要用到语音搜索功能,找了一些第三方库都不太理想,要么语音识别速度很慢,要么不能精确识别等等,最后选择了迅飞语音(迅飞语音听写(流式版)WebAPI)。迅飞语音相对来说做得还是比较成熟了,不过是收费的(是按照调用API次数来收费),但是有试用次数,每天有500次调用次数(不定期会有活动,推荐购买正式版)。
讯飞语音相关的产品还是比较全面的,根据项目需要这次用的是迅飞语音听写(流式版)WebAPI,官网有不同平台的Demo和SDK,由于我们是之前的老Web项目(没有进度前后端分离),而官网下载下来的Demo需要调用很多第3方库,而且还要经过打包编译,感觉过于复杂。
所以我进行了二次封装,去除了很多不必要的插件和代码,可以直接在Web前端PC端、移动H5中引入使用(在HTML文件中引入JS文件,或 在Npm包管理库中下载)即可,使用起来很方便,不用去打包编译等,在这里记录一下,方便以后再次用到。
📚语音听写功能简介:
- 把语音(≤60秒)转换成对应的文字信息,让机器能够“听懂”人类语言,相当于给机器安装上“耳朵”,使其具备“能听”的功能。
- 语音听写流式接口,用于1分钟内的即时语音转文字技术,支持实时返回识别结果,达到一边上传音频一边获得识别文本的效果。
- 该语音能力是通过Websocket API的方式给开发者提供一个通用的接口。
- Websocket API具备流式传输能力,适用于需要流式数据传输的AI服务场景,比如边说话边识别。
- 相较于SDK,WebAPI具有轻量、跨语言的特点;相较于HTTP API,Websocket API协议有原生支持跨域的优势。
- 语音听写流式WebAPI 服务,热词使用方式:登陆开放平台https://www.xfyun.cn/后,找到控制台--我的应用---语音听写---个性化热词,上传热词。
📊实例效果:
🔍实例地址:
https://muguilin.github.io/VoiceDictation/https://muguilin.github.io/VoiceDictation/
🍀下载安装:
# Npm安装
npm i @muguilin/xf-voice-dictation
# Yarn安装
yarn add @muguilin/xf-voice-dictation
🚀实例代码:
import { XfVoiceDictation } from '@muguilin/xf-voice-dictation';
let times = null;
// 实例化迅飞语音听写(流式版)WebAPI
const xfVoice = new XfVoiceDictation({
APPID: 'xxx',
APISecret: 'xxx',
APIKey: 'xxx',
// webSocket请求地址 非必传参数,默认为:wss://iat-api.xfyun.cn/v2/iat
// url: '',
// 监听录音状态变化回调
onWillStatusChange: function (oldStatus, newStatus) {
// 可以在这里进行页面中一些交互逻辑处理:如:倒计时(语音听写只有60s),录音的动画,按钮交互等!
console.log('识别状态:', oldStatus, newStatus);
},
// 监听识别结果的变化回调
onTextChange: function (text) {
// 可以在这里进行页面中一些交互逻辑处理:如将文本显示在页面中
console.log('识别内容:',text)
// 如果3秒钟内没有说话,就自动关闭(60s后也会自动关闭)
if (text) {
clearTimeout(times);
times = setTimeout(() => xfVoice.stop(), 3000);
};
},
// 监听识别错误回调
onError: function(error){
console.log('错误信息:', error)
},
});
// 给Dom元素加添事件,来调用开始语音识别!
// xfVoice.start();
// 给Dom元素加添事件,来调用关闭语音识别!
// xfVoice.stop();
⛺源码地址:
📢Npm:
📢GitHub:
https://github.com/MuGuiLin/VoiceDictationhttps://github.com/MuGuiLin/VoiceDictation
📗使用说明:
- 在代码中已有很详细的注释和说明,一看就便懂,这里就不要赘述。
- 语音听写简介:语音听写_语音识别-讯飞开放平台。
- 语音听写(流式版)WebAPI 文档:语音听写(流式版)WebAPI 文档 | 讯飞开放平台文档中心。
- SDK&API 错误码查询:错误码查询 - 讯飞开放平台。
📚使用前提条件:
- 需要有APPID,APISecret,APIKey 这3个参数(可以去迅飞开放平台注册账户,然后登录到控制台,创建应用 -> 语音识别 -> 语音听写(流式版)后,在右边的 服务接口认证信息处得到这3个参数),并且还要有实时用量次数(每天500次试用)。
- 要有硬件设备(麦克风)并且 需要用户允许受权API调用麦克风的权限。
- 使用要在服务环境下运行如(WAMP、XAMPP、Phpstudy、http-server、WebServer)。注:获取浏览器录音功能,因安全性问题,需要在localhost 或 127.0.0.1 或 https 服务环境下才能获取权限!
📚识别运行过程:
- websocket连接:判断浏览器是否兼容,生成带鉴权参数的websocket url地址。
- 获取浏览器录音权限:判断浏览器是否兼容,获取浏览器录音权限(需要用户同意)。
- 获取录音数据。
- 将录音数据处理为文档要求的数据格式:采样率16k或8K、位长16bit、单声道;该操作属于纯数据处理,使用webWork多线程计算处理。
- 根据要求(采用base64编码,每次发送音频间隔40ms,每次发送音频字节数1280B)将处理后的数据通过websocket传给服务器。
- 服务器实时通过websocket返回识别后的文件数据后,前端进行展示等处理。