采用前端录音,基于Node搭建Websocket服务器,音频对象Blob使用Websocket传给后端服务器后写入本地音频文件,然后调用百度AI语音识别本地音频文件,最后将识别结果传给前端显示。
源码下载
百度语音识别
查看文档知道了我想要的信息,如果想要实现实时语音识别、长时间段的语音、唤醒词功能、语义解析功能,需要使用Android
、IOS SDK
或者Linux C++ SDK
版本,而我使用的Nodejs SDK
是不支持的。
1、规格参数要求
- 语音时长上线为60s,超出讲返回错误
- 原始录音文件为
pcm
(不压缩)、wav
(不压缩)、pcm
编码或者amr
(压缩)格式,不区分大小写,推荐使用pcm
- 录音采样率为
16000
,16bit
位深、单通道 - 支持普通话、英文、粤语、四川话
项目结构
调用百度AI平台语音识别的Nodejs SDK
,查看文档快速入门,可以查看如何调用。
首先将nodejs-sdk下载下来,下载后将目录里的speech
文件夹拷贝到你的项目文件夹中,其中assets
是存放录音音频的地方,然后进入node
文件夹下的位置进行安装依赖包:
npm install
我的项目文件夹目录如下:
audio_asr_baidu
├─ package-lock.json
└─ speech
├─ .gitignore
├─ assets
│ ├─ 16k_test.pcm
│ └─ recorder.wav
├─ cpp
│ ├─ .gitignore
│ ├─ README.md
│ ├─ build.sh
│ └─ main.cpp
└─ node
├─ .gitignore
├─ README.md
├─ RecordRTC.js
├─ index.html
├─ main.js
├─ node_modules
├─ package-lock.json
├─ package.json
└─ style.css
然后在node
文件夹里的index.html
是我的客户端文件,main.js
是我的服务端文件。
搭建Websocket服务器
在main.js
文件里搭建websocket
服务器,首先安装相关依赖模块:
npm i ws -S
然后搭建:
let Server = require('ws').Server;
const wss = new Server({
port: 9001
})
// 连接服务器
wss.on('connection', ws => {
console.log('server connected');
})
ws.on('error', error => {
console.log('Error:' + error);
})
ws.on('close', () => {
console.log('Websocket is closed');
})
})
// 断开连接
wss.on('disconnection', ws => {
ws.on(