LauraTTS:达摩院开源,对标VALL-E

图片

项目地址:

https://github.com/alibaba-damo-academy/FunCodec

https://modelscope.cn/models/damo/speech_synthesizer-laura-en-libritts-16k-codec_nq2-pytorch/summary

LauraTTS:

https://github.com/alibaba-damo-academy/FunCodec/tree/master/egs/LibriTTS/text2speech_laura

testset

WER

Ins

Del

Sub

Speaker Simi

LibriTTS test-clean

3.01

15

51

200

83.53

VALL-E

16.14

142

148

1137

68.17

LauraTTS

4.56

44

78

278

78.20

  • Test set: LibriTTS test-clean

  • Metrics: WER and Ins, Del, Sub errors.

  • Speaker similarity: Cosine similarity with Resemblyzer encoder

Highlights

适用于英文语音合成,具备 zero-shot 说话人自适应能力,也可以作为普通的语音合成器,可用于多种语音合成场景。

  • 较高的语音合成质量

  • 具备 zero-shot 说话人自适应能力

  • 可以用于多种场景,例如音色转换(Voice conversion)

项目介绍

FunCodec 是达摩院语音团队开源的音频量化与合成工具包。FunCodec 提供了在多领域音频数据集上预训练的音频量化和音频合成模型,可以被应用于低比特率语音通讯、语音离散化表示、zero-shot语音合成、音频合成等相关的学术研究。

本项目提供了在 LibriTTS 上训练的 LauraGPT-style 的语音合成(Text-To-Speech, TTS)模型 LauraTTS

LauraTTS主要包括两个部分:Decoder-only 的自回归 Transformer 模块和Encoder-only 的非自回归 Transformer 模块:

  • Decoder-only Transformer可以看做一个conditional 语言模型,它以 prompt text, text 和 prompt audio 作为 conditions,对要合成的语音 token 进行建模。在本模型中,我们使用 FunCodec通用语音量化器 

  • Encoder-only Transformer 则以 Decoder-only Transformer 的输出作为输入,以 text 作为 condition,预测FunCodec通用语音量化器

  • 更多细节详见:

  • FunCodec: A Fundamental, Reproducible and Integrable Open-source Toolkit for Neural Speech Codec

  • LauraGPT: Listen, Attend, Understand, and Regenerate Audio with GPT

如何使用模型

FunCodec 框架安装

# 安装 Pytorch GPU (version >= 1.12.0): 

conda install pytorch==1.12.0 

# 对于其他版本,请参考 https://pytorch.org/get-started/locally # 

下载项目代码: 

git clone https://github.com/alibaba-damo-academy/FunCodec.git 

# 安装 FunCodec: 

cd FunCodec 
pip install --editable ./

使用 FunCodec 进行语音合成

接下以 LibriTTS 数据集为例,介绍如何使用 FunCodec 进行语音合成:

# 进入工作目录 

cd egs/LibriTTS/text2speech_laura 
model_name="speech_synthesizer-laura-en-libritts-16k-codec_nq2-pytorch" 

# 1. 生成音色随机的语音,生成结果保存在 results 文件夹下 

bash demo.sh --stage 1 --model_name ${model_name} --output_dir results --text "hello world" 

# 2. 生成给定说话人的语音,生成结果保存在 results 文件夹下 ​​​​​​​

bash demo.sh --stage 2 --model_name ${model_name} --output_dir results --text "hello world" \
  --prompt_text "one of these is context" --prompt_audio "demo/8230_279154_000013_000003.wav"

使用 ModelScope 进行语音合成

from modelscope.pipelines import pipeline 
from modelscope.utils.constant import Tasks 
my_pipeline = pipeline(
   task=Tasks.text_to_speech,
   model='damo/speech_synthesizer-laura-en-libritts-16k-codec_nq2-pytorch'
)
text='nothing was to be done but to put about, and return in disappointment towards the north.' 
prompt_text='one of these is context' 
prompt_speech='https://isv-data.oss-cn-hangzhou.aliyuncs.com/ics/MaaS/ASR/test_data/FunCodec/prompt.wav' 
# free generation
print(my_pipeline(text)) 
# zero-shot generation 
print(my_pipeline(text, prompt_text, prompt_speech))

​​​​​​​

  • 8
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
1. GAN:GAN(Generative Adversarial Network)是一种人工智能算法,可以生成逼真的图像、视频、音频等内容。GAN由两个神经网络组成,一个生成器和一个判别器,生成器生成假数据,判别器判断真假数据,两个网络相互博弈,通过反复训练来提高生成器的生成能力。 2. Diffusion:Diffusion是一种生成模型,可以生成高质量的图像、音频和视频。Diffusion的核心思想是在像素级别上控制噪声的扩散,从而实现对生成样本的控制。 3. CLIP:CLIP(Contrastive Language-Image Pre-Training)是一种自然语言处理和计算机视觉的预训练模型,可以将文本和图像联系起来。CLIP通过对大量文本和图像进行预训练,实现文本和图像的语义对齐,从而可以用文本来指导图像生成。 4. Transformer:Transformer是一种用于自然语言处理的神经网络模型,可以处理序列数据。Transformer采用了自注意力机制,能够有效地捕捉序列中的长程依赖关系,因此在机器翻译、文本生成等任务中表现优异。 5. NERF:NERF(Neural Radiance Fields)是一种生成模型,可以从单张图像中重建出三维场景。NERF利用神经网络学习场景中每个点的光线辐射度,从而实现高质量的场景重建。 6. VALL-E:VALL-E是一种基于Transformer和CLIP的图像生成模型,可以根据文本描述生成逼真的图像。VALL-E通过对文本描述和图像进行语义对齐,实现图像的生成。 7. GPT系列:GPT(Generative Pre-trained Transformer)系列是一种自然语言处理的预训练模型,包括GPT、GPT-2、GPT-3等不同版本。GPT系列采用了Transformer架构,通过对大量文本进行预训练,可以实现文本生成、文本分类等任务。GPT-3还可以进行语言理解和推理,表现出惊人的智能水平。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值