GMM

1.在多元混合高斯模型中,如果使用全协方差矩阵,参数量为MxD^2,M是混合成分的个数,D是MFCC的维度,所以当参数量很大的时候,一般每个混合成分使用对角矩阵,以减少参数量
2.尽管GMM有众多的优势,但是它有一个严重的不足,那就是GMM不能有效地对呈非线性的数据进行建模,比如对一系列呈球面的点阵建模,如果选择合适的模型,只需要很少的参数,但是使用GMM需要很多对角阵或者全协方差矩阵,这也是为什么在使用GMM进行说话人模型建立的时候需要I-vector进行降维,因为GMM描述了太多的和问题无关重要的细节,现在再看为什么在文本相关的说话人识别中GMM的表现会比较好而在文本无关的时候会差很多,因为在文本无关的时候GMM会拟合很多文本信息,对于模型来说,由于是无监督的,所以文本信息和说话人信息是等地位的,所以用GMM来拟合模型这时候效果就会比较差,但如果文本无关的数据量足够大,对于DNN来说,由于是有label的训练,网络知道如何去扑捉说话人的信息而忽略掉文本信息。
3.早期的语音识别采用的是GMM-HMM模型,GMM在这里用来描述每个时刻的输出,即转移输出的概率表达。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值