语音识别(ASR)论文优选:性能测试Wav2Vec2.0 on the Edge: Performance Evaluation

声明:平时看些文章做些笔记分享出来,文章中难免存在错误的地方,还望大家海涵。搜集一些资料,方便查阅学习:http://yqli.tech/page/speech.html。语音合成领域论文列表请访问http://yqli.tech/page/tts_paper.html,语音识别领域论文统计请访问http://yqli.tech/page/asr_paper.html。如何查找语音资料请参考文章https://mp.weixin.qq.com/s/eJcpsfs3OuhrccJ7_BvKOg)。如有转载,请注明出处。欢迎关注微信公众号:低调奋进。

Wav2Vec2.0 on the Edge: Performance Evaluation

本文为Meta Inc在2022.02.12更新的文章,主要进行wav2vec2.0在边缘设备上的性能测试,具体的文章链接

https://arxiv.org/pdf/2202.05993.pdf


(本文主要是实验结果分享,我给总结成实验报告形式,结果仅供参考)

1 实验背景和目的

 Wav2Vec2.0 是通过无监督学习Self-supervised learning对音频进行表征学习,其学习的表征信息供下游的语音识别等任务使用,如图1所示。过往的研究还没有对Wav2Vec2.0在边缘设备上进行性能测试,因此本文主要分享该实验成果。

2  实验设置

本文实验的整套方案是在PyTorch生态上进行,其量化等操作都是其生态api。该实验的模型准备如图2所示,图3和图4展示测试流程。实验数据为LibriSpeech,实验使用的lm为KenLM。实验设备Raspberry Pi 的配置如table 1所示。实验的指标包括

accuracy(WER), latency(RTF) and efficiency(CPU, memory and power consumption)。

3 实验结果

首先看一下语音识别的WER指标如table 2所示,有了语言模型,WER 至少比没有语言模型的 WER 好 30 %。beam size 100 至少有 ∼3 % 的改进。使用量化语言模型WER 比不使用语言模型的好 ∼25 %​。

接下来看一下RTF,核数越多rtf越小,但3核和4核差别不大​,都勉强实时。图5到图8展示了能量开销,系统稳态为∼ 3.1W,则每增加一核开销∼ 1.1W, ∼ 1.7W, ∼ 2.3W and ∼ 2.9W ​。图9和图10对比量化和​非量化模型的能源开销。图11和图12为内存开销和cpu占用情况,可以看到使用语言模型的内存占用增加​较大。

4 总结

本文评估在边缘设备树莓派上的 Wav2Vec 模型推理性能,其RTF勉强达到实时。 通过使用语言模型,模型的准确率提高了∼30%,但增加了约 200% 内存成本。 通过使用量化语言模型,内存占用可以大大减少。 模型量化比未量化模型的能源开销低约 27%。​

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

我叫永强

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值