ASR(Automatic Speech Recognition)调研,当前sota的架构

asr概览英文纯享版:an overview of transducer models for asr

本文主要讲述nvidiaopenai的模型架构,应为他们两家霸榜huggingface leader board
小白也能阅读了解一下当前sota的asr架构是什么样的

在这里插入图片描述
评测指标

  • Word Error Rate (WER):错词率,值越小代表识别效果越好
  • Real Time Factor (RTF):实时反馈,值越小代表模型识别的越快

Nvidia的asr模型

以前是基于Conformer模型,现在是基于原先模型优化后的Fast-Conformer,可以4x节省显存以及3x提高计算速率
Conformer是Transformer的一个变体,在自注意力层间堆叠卷积神经网络层

在这里插入图片描述

原文档摘录:This paper’s thesis is that by interleaving Convolutional Neural Networks layers in between the self-attention layers in transformers

一、Canary 金丝雀

这是一个 encoder-decoder模型,encoder模型是Fast-Conformer,decoder是transformer

加入了concatenated tokenizer ,提供对输出标记空间的明确控制,有助于优化模型性能

不支持中文,模型许可不能商用

原文档摘录: The model weights are distributed under a research-friendly non-commercial CC BY-NC 4.0 license

架构参考文献

二、Parakeet 鹦鹉

也是encoder-decoder模型,语音长度支持11小时,显卡要求A100 GPU 80G

encoder是Fast-Conformer,decoder是RNNT或CTC(CTC在RTF的表现更好,快4~6倍)

  • CTC(Connectionist Temporal Classification)连续时间分类
    在这里插入图片描述

    • 概念: CTC 是一种特别为序列预测任务设计的训练和解码方法,它能够处理输入和输出序列长度不一致的问题。这在语音识别中尤其有用,因为输入的语音长度和输出的文本长度通常是不匹配的。
    • 原理: CTC 引入了一个特殊的空白标签(通常表示为 “blank” 或 “-”),用于处理不需要输出字符的时间步。它通过这个空白标签来桥接输入和输出之间的时间对齐问题,并允许模型学习在何时输出一个字符以及何时保持沉默。
    • 优点: 不需要对齐,只需要语音以及其对应的文本序列
    • 缺点: 条件独立,token之间没有上下文关联;需要一个额外训练的语言模型来纠正语义错误。
      • 例如输出I have for apples ,应该是four,由于条件独立没有上下文交互,所以无法确定是for 还是four
  • RNNT(Recurrent Neural Network Transducer)循环神经网络转录器,Transducer == RNNT 不同称呼但是指的是同一个东西(我之前还疑惑了很久,后来发现是同一个东西)

在这里插入图片描述

  • 概念: 处理输入输出序列长度不匹配的问题

  • 原理: 编码器(encoder)、预测器(Predictor)和联合网络(Joiner)。编码器处理输入的声音特征,预测器处理已生成的文本序列,而联合网络将编码器和解码器的输出结合起来,生成最终的输出概率分布。

  • 优点: 在没有明确时间对齐指导的情况下,进行更为动态的解码,适用于需要实时反馈的应用场景。有上下文依赖,根据上一个输入预测下一个输出

在encoder中,加入了Limited Context Attention (LCA) and Global Token (GT)

  • LCA:不考虑整个输入序列,只关注部分的序列;减少计算负担,提高处理速度,并可能帮助模型更专注于当前最相关的信息片段。
  • GT: 是一种机制,通过引入一个或多个特殊的标记(tokens),这些标记被训练用来捕捉整个输入序列的全局状态或特征。这些标记在模型的每个处理步骤中都会被更新,以反映序列的整体上下文。

不支持中文可以微调可以商用

You can fine-tune Parakeet models for other languages on your own datasets. Below are some helpful tutorials:

相同模型在不同的推理设备下有不同的RTF(real-time factor)值

架构参考文献

三、Parakeet-TDT

TDT (Token-and-Duration Transducer),这是一个新的训练架构,能提高准确率和速度

之前的架构: Transducers (AKA RNNTs if only using Recurrent Neural Networks and their variants).

在这里插入图片描述

  • encoder处理音频
  • decoder处理已经预测出的文本
  • joiner结合encoder和decoder的输出来预测每一个音频片段(frame,是一个基本单位)

joiner通常将语音切片成40~80毫秒,但是说一个单词的平均时间是400毫秒,这就导致在片段中的一些数据不会与任何文本输出相关联,这里用空白符_表示,删除空白符才能得到完整的句子

_ _ _ _ NVIDIA _ _ _ _ is _ _ _ a _ _ great _ _ _ _ _ place _ _ _ _ to work _ _ _

TDT架构多加了一个概率输出
在这里插入图片描述

  • token概率 P T ( v ∣ t , u ) P_T(v|t,u) PT(vt,u) ,是当前frame中预测token的概率
  • 持续时间概率 P D ( d ∣ t , u ) P_D(d|t,u) PD(dt,u),是在预测下一个token之前,当前token持续的frame数量

预测的输出如下

frame 1:  predict token=_,      duration=4 
frame 5:  predict token=NVIDIA, duration=5 
frame 10: predict token=is,     duration=4 
frame 14: predict token=a,      duration=3 
frame 17: predict token=great,  duration=6 
frame 23: predict token=place,  duration=5 
frame 28: predict token=to,     duration=1 
frame 29: predict token=work,   duration=4 
frame 33: reach the end of audio, recognition completed.

将预测frame的步数从33次减少到8次。

参考文献

OpenAI的asr模型

whisper

输入:切分成30s的chunk,转换成Log-Mel Spectrogram(声谱)输入encoder

输出:文字

seq2seq的transformer架构

在这里插入图片描述

输入:切分成30s的chunk,转换成Log-Mel Spectrogram(声谱)输入encoder

输出:文字

seq2seq的transformer架构

1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。
1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。
### 回答1: speechrecognition是一个用于语音识别的Python库。它提供了一个简单而强大的接口,可以将人类语言转换为文本形式。 speechrecognition库支持多种语音识别API,包括百度语音识别、离线语音识别以及Google语音识别等。这使得我们可以选择适合自己需求的API进行语音识别。 使用speechrecognition库进行中文语音识别非常简单。首先,我们需要安装speechrecognition库及其相关依赖。然后,我们可以使用recognize_google函数来进行语音识别: import speech_recognition as sr # 创建一个语音识别的实例 r = sr.Recognizer() # 读取音频文件 with sr.AudioFile('audio.wav') as source: audio = r.record(source) # 将音频文件转换为音频对象 # 使用Google语音识别API进行语音识别 text = r.recognize_google(audio, language='zh-CN') print(text) 在上面的代码中,我们将音频文件读取为一个音频对象,并使用Google语音识别API进行语音识别。最后,我们将识别结果打印出来。 除了从音频文件中进行语音识别speechrecognition库还支持从麦克风输入进行实时语音识别。我们只需要调用recognize_microphone函数即可实现。例如: import speech_recognition as sr # 创建一个语音识别的实例 r = sr.Recognizer() # 使用麦克风进行实时语音识别 with sr.Microphone() as source: audio = r.listen(source) # 使用Google语音识别API进行语音识别 text = r.recognize_google(audio, language='zh-CN') print(text) 使用speechrecognition库进行中文语音识别非常便捷,无论是从音频文件中进行识别还是实时录音进行识别,都可以通过简单的几行代码实现。 ### 回答2: speechrecognition库是一个用于语音识别的Python库。它提供了多种语音识别引擎的支持,包括Google Speech Recognition、CMU Sphinx、Wit.ai等。虽然speechrecognition库最初是为英语语音识别而设计的,但它也可以用于中文语音识别。 在使用speechrecognition库进行中文语音识别时,我们首先需要导入库并创建一个Recognizer对象。我们可以通过Recognizer对象来调用不同的语音识别引擎。例如,使用Google Speech Recognition引擎进行中文语音识别,我们可以使用以下代码: ``` import speech_recognition as sr r = sr.Recognizer() with sr.Microphone() as source: print("请开始说话...") audio = r.listen(source) try: print("Google Speech Recognition识别结果: " + r.recognize_google(audio, language="zh-CN")) except sr.UnknownValueError: print("Google Speech Recognition无法识别音频") except sr.RequestError as e: print("无法从Google Speech Recognition服务获取结果:" + str(e)) ``` 在上述代码中,我们使用了`recognize_google()`方法来调用Google Speech Recognition引擎进行中文语音识别。`.listen(source)`方法用于从输入设备(麦克风)获取音频输入。接着,我们使用`try except`结构来处理识别结果和异常情况。 除了Google Speech Recognition引擎,speechrecognition库还支持其他引擎。例如,我们可以使用Wit.ai引擎进行中文语音识别,只需将上述代码中的`recognize_google()`改为`recognize_wit()`。 总之,speechrecognition库提供了中文语音识别的功能,我们可以通过简单的代码来实现中文语音识别应用。 ### 回答3: speechrecognition库是一个用于语音识别的Python库。它提供了一种简单的方式来将语音转换为文本数据。该库支持多种语音识别服务,包括Google Speech Recognition、Wit.ai、Bing Speech Recognition等。 使用speechrecognition库非常简单。首先,需要安装该库,可以使用pip命令进行安装。接下来,可以使用代码对语音进行识别。首先,需要创建一个Recognizer对象,然后使用该对象进行语音录制。录制完成后,调用Recognizer对象的recognize方法将语音转换为文本。 使用speechrecognition库进行中文语音识别也非常方便。可以通过设置recognize_google或recognize_bing等方法的参数lang为"zh-CN"来指定使用中文识别。除了指定语言外,还可以设置一些参数,如调整语音识别的准确度、音量阈值等。 speechrecognition库还支持实时语音识别,它可以从麦克风或音频流中实时识别语音。使用实时语音识别时,可以通过设置partial_results参数来获取部分结果,这对于处理长时间语音非常有用。 总而言之,speechrecognition是一个功能强大且易于使用的语音识别库,可以帮助我们将语音转换为文本数据,并支持多种语音识别服务。无论是进行中文语音识别还是实时语音识别speechrecognition库都是一个不错的选择。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

EEE1even

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值