语音克隆达到人类水平,微软全新VALL-E 2模型让DeepFake堪比配音员

继去年初的第一代VALL-E模型之后,微软最近又上新了VALL-E 2模型,标志着第一个在合成语音稳健性、相似度、自然程度等方面达到人类水平的文本到语音模型。

来源丨新智元

最近,微软发布了零样本的文本到语音(TTS)模型VALLE-2,首次实现了与人类同等的水平,可以说是TTS领域里程碑式的进展。

 

论文地址:https://arxiv.org/pdf/2406.05370

随着近年来深度学习的快速进步,用录音室环境下的干净单人语音训练模型,已经可以达到人类同等水平的质量,但零样本TTS依旧是一个有挑战性的问题。

「零样本」意味着推理过程中,模型只能参照一段简短的陌生语音样本,用相同的声音说出文本内容,就像一个能即时模仿的口技大师。

听到这里,不知道你会不会突然警觉——有这种能力的模型就是Deepfake的最佳工具!

令人欣慰的是,MSRA考虑到了这一点,他们目前只将VALL-E系列作为研究项目,并没有纳入产品或扩大使用范围的计划。

虽然VALL-E 2有很强的零样本学习能力可以像配音员一样模仿声音,但相似度和自然度取决于语音prompt的长度和质量、背景噪音等因素。

在项目页面和论文中,作者都进行了道德声明:如果要将VALL-E推广到真实世界的应用中,至少需要一个强大的合成语音检测模型,并设计一套授权机制,确保模型在合成语音前已经得到了声音所有者的批准。

对于微软这种只发论文不发产品的做法,有些网友表示非常失望。

图片

毕竟最近各种翻车的产品让我们深深明白,只看demo完全不可靠,没法自己试用=没有。

图片

但Reddit上有人揣测:微软只是不想当「第一个吃螃蟹的人」,不发模型是担心可能的带来的批评和负面舆论。

一旦有了能将VALL-E转化为产品的方法,或者市场上杀出其他竞品,难道还担心微软有钱不赚吗?

图片

图片

的确如网友所说,从项目页面目前放出的demo来看,很难判断VALL-E的真实水平。

图片

项目页面:https://www.microsoft.com/en-us/research/project/vall-e-x/vall-e-2/

共5条文本都是不超过10个单词的英文短句,语音prompt的人声音色都非常相近,英语口音也不够多样化。

虽然demo不多,但能隐隐感受到,模型对英美口音的模仿非常炉火纯青,但如果prompt略带印度或者苏格兰口音,就很难达到以假乱真的程度。

方法

模型前身VALL-E发布于2023年初,已经是TTS在零样本方面的重大突破。VALL-E能够用3秒的录音合成个性化语音,同时保留说话者的声音、情绪和声学环境。

然而VALL-E存在两方面的关键限制:

1)稳定性:推理过程中使用的随机采样(random sampling)可能会导致输出不稳定,而top-p值较小的核采样可能会导致无限循环问题。虽然可以通过多次采样和后续排序来缓解,但会增加计算成本。

2)效率:VALL-E的自回归架构绑定了与现成的音频编解码器模型相同的高帧率,且无法调整,导致推理速度较慢。

虽然已经有多项研究用于改进VALL-E的这些问题,但往往会使模型的整体架构复杂化,而且增加了扩展数据规模的负担。

基于这些之前的工作,VALL-E 2包含两方面的关键创新:重复感知采样(repetition aware sampling)和分组代码建模(grouped code modeling)。

重复感知采样是对VALL-E中随机采样的改进,能够自适应地采用随机采样或者核采样(nucleus sampling),选择的依据是曾经的token重复,因此有效缓解了VALL-E的无限循环问题,大大增强解码稳定性。

图片

重复感知采样的算法描述

分组代码建模则是将编解码器代码划分为多个组,自回归时每组在单个帧上建模。不仅减少了序列长度、加速推理,还通过缓解长上下文建模问题来提高性能。

值得注意的是,VALL-E 2仅需要简单的语音-转录文本数据进行训练,不需要额外的复杂数据,大大简化了数据的收集、处理流程,并提高了潜在的可扩展性。

具体来说,对于数据集中每条语音-文本数据,分别用音频编解码器编码器(audio codec encoder)和文本分词器将其表示为编解码器代码𝐂=[𝐜0,𝐜1,…,𝐜(𝑇−1)]和文本序列𝐱=[𝑥0,𝑥1,…,𝑥(𝐿−1)],用于自回归(AR)和非自回归(NAR)模型的训练。

图片

AR和NAR模型都采用Transformer架构,后续的评估实验设计了4种变体进行对比。它们共享相同的NAR模型,但AR模型的组大小分别为1、2、4、8。

推理过程也同样是AR和NAR模型的结合。以文本序列𝐱和代码提示𝐜<𝑇′,0为条件生成目标代码𝐜≥𝑇′,0的第一代码序列,再用自回归的方式生成每组的目标代码。

图片

给定𝐜≥𝑇′,0序列后,就可以使用文本条件𝐱和声学条件𝐂<𝑇′推断NAR模型,以生成剩余的目标代码序列𝐂≥𝑇′,≥1。

模型训练使用了Libriheavy语料库中的数据,包含7000个人朗读英语有声书的5万小时语音。文本和语音的分词分别使用BPE和开源的预训练模型EnCodec。

此外,也利用了开源的预训练模型Vocos作为语音生成的音频解码器。

评估

为了验证模型的语音合成效果是否能达到人类同等水平,评估采用了SMOS和CMOS两个主观指标,并使用真实的人类语音作为ground truth。

SMOS(Similarity Mean Opinion Score)用于评估语音与原始提示的相似度,评分范围为1~5,增量为0.5分。

CMOS(Comparative Mean Opinion Score)用于评估合成语音与给定参考语音的比较自然程度,标度范围为-3~3,增量为1。

图片

根据表2结果,VALL-E 2的主观评分不仅超过了第一代的VALL-E,甚至比人类真实语音有更完美的表现。

此外,论文也使用了SIM、WER和DNSMOS等客观指标来评估合成语音的相似度、鲁棒性和整体感知质量。

图片

在这3个客观指标上,无论VALL-E 2的组大小如何设置,相比VALL-E都有全方位的提升,WER和DNSMOS分数也优于真实人类语音,但SIM分数还存在一定差距。

此外,从表3结果也能发现,VALL-E 2的AR模型组大小为2时,可以取得最优效果。

在VCTK数据集上的测评也可以得到相似的结论。当prompt长度增加时,分组代码建模方法可以减少序列长度,缓解Transformer架构中不正确注意力机制导致的生成错误,从而在WER分数上得到提升。

图片

作者简介

本文第一作者陈三元是哈尔滨工业大学和微软亚洲研究院的联合培养博士,他从2020年开始担任MSRA自然语言计算组的实习研究员,研究兴趣主要是用于语音和音频处理的预训练语言模型。

图片

参考资料:

https://arxiv.org/abs/2406.05370

  • 8
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
1. GAN:GAN(Generative Adversarial Network)是一种人工智能算法,可以生成逼真的图像、视频、音频等内容。GAN由两个神经网络组成,一个生成器和一个判别器,生成器生成假数据,判别器判断真假数据,两个网络相互博弈,通过反复训练来提高生成器的生成能力。 2. Diffusion:Diffusion是一种生成模型,可以生成高质量的图像、音频和视频。Diffusion的核心思想是在像素级别上控制噪声的扩散,从而实现对生成样本的控制。 3. CLIP:CLIP(Contrastive Language-Image Pre-Training)是一种自然语言处理和计算机视觉的预训练模型,可以将文本和图像联系起来。CLIP通过对大量文本和图像进行预训练,实现文本和图像的语义对齐,从而可以用文本来指导图像生成。 4. Transformer:Transformer是一种用于自然语言处理的神经网络模型,可以处理序列数据。Transformer采用了自注意力机制,能够有效地捕捉序列中的长程依赖关系,因此在机器翻译、文本生成等任务中表现优异。 5. NERF:NERF(Neural Radiance Fields)是一种生成模型,可以从单张图像中重建出三维场景。NERF利用神经网络学习场景中每个点的光线辐射度,从而实现高质量的场景重建。 6. VALL-E:VALL-E是一种基于Transformer和CLIP的图像生成模型,可以根据文本描述生成逼真的图像。VALL-E通过对文本描述和图像进行语义对齐,实现图像的生成。 7. GPT系列:GPT(Generative Pre-trained Transformer)系列是一种自然语言处理的预训练模型,包括GPT、GPT-2、GPT-3等不同版本。GPT系列采用了Transformer架构,通过对大量文本进行预训练,可以实现文本生成、文本分类等任务。GPT-3还可以进行语言理解和推理,表现出惊人的智能水平
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值