论文解读:HUBERT HOW MUCH CAN A BAD TEACHER BENEFIT ASR PRE-TRAINING

HUBERT模型通过k-means聚类为预训练提供目标标签,只在被mask区域计算预测损失,克服ASR预训练的挑战。研究发现,即使在低资源条件下,HUBERT的性能也能与最佳wav2vec2.0模型相当。预训练后的迭代聚类能进一步提升模型表现。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

HUBERT HOW MUCH CAN A BAD TEACHER BENEFIT ASR PRE-TRAINING

文章来源:icassp2021

研究背景:

相比于CV和NLP领域,ASR领域中自监督预训练方法面临3个挑战。

  1. 一条语音句子中存在多个发音单元。
  2. 只进行audio-pretraining,没有发音单元的词典。
  3. 发音单元变长,没有清晰的段边界。

在这篇文章中,作者提出了HIdden-Unit BERT(HUBERT)模型,采用k-means聚类,为BERT预训练模型提供target label。**作者方法成功的关键因素是只在被masked的区域计算预测损失函数。**这使得模型在预训练阶段能够受益于无监督teacher的一致性,而不是teacher的质量。在初始阶段,只进行100类别的聚类,进行两次迭代的聚类,HUBERT模型的性能能够在低资源场景下,和最优的wav2vec2.0模型相当。

具体做法:

wav2vec2.0是怎么生成target

在讲解本文的做法之前,需要先了解预训练模型wav2vec2.0的做法。wav2vec2.0是一个很优秀的自监督预训练模型,在预训练阶段不需要语音-文本pair数据,但是预训练模型训练需要构建自监督任务所需要的target。

wav2vec2.0模型采用原始语音输入,然后进行features encoder学习类似于fbank的局部特征,然后features encoder的输出被多段mask后,进入transformer,通过transformer上下文预测被mask的表征,然后features encoder输出的被多段mask的真实特征进入VQ模块进行量化,这个VQ模块本质上是一个聚类器,是一个提供预训练target的模块,这里的VQ本身是随着训练进行参数更新,是一个在线聚类的过程。wav2vec2.0先了解到这里。

HUBERT是怎么生成target

HUERT是一个离线聚类获取target的过程,具体做法:

  1. 首先在39维的MFCC特征上进行k-means和GMM聚类,聚类中心数为{50,100,500}。聚类之后可以获取每一帧语音的聚类中心,此时的聚类中心为每一帧的target。
  2. 每一帧语音获取target后,进行类似于wav2vec2.0类似的pretraining,然后在mask位置和未被mask的位置计算损失函数,
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值