CONTRASTIVE-MIXUP LEARNING FOR IMPROVED SPEAKER VERIFICATION
摘要
本文提出了一种全新的mixup原型损失;
mixup是一种简单高效的数据增强方法--可以制造随机数据点和标签对的加权组合;
mixup在深度学习中可以提升模型的鲁棒性和泛化能力;
尽管mixup已经在很多领域成功应用,但绝大多数都是闭集的分类任务;
本文提出contrastive-mixup,这是一种新奇的数据增强策略--可以学到基于distance metric的具有区分性的representation;
在训练中,mixup可以对输入和虚拟标签生成convex interpolations(凸插值),另外,本文重新阐述了prototypical loss,证明mixup适用于度量学习目标;
本文在少量数据上验证了其泛化能力,相较于baseline有16%的提升;
Index Terms:mixup、度量学习、prototypical loss