数据集说明文档

thu30–清华30h的中文测试数据

http://www.openslr.org/18/
在这里插入图片描述
30个中文说话者,识别数据集,包括22个女性说话者和8个男性说话者

maleA5、A8、A9、A33、 A35、B8、B21、D8
female其余的

VCTK

109个说话者,每个人大概400条句子,native english speaker,读报纸
所有记录都转换为16位,根据STPK下采样到48 kHz
http://homepages.inf.ed.ac.uk/jyamagis/page3/page58/page58.html

selected10–

female229、240、248、249、253
male241、245、246、251、255

男声46人
在这里插入图片描述
共计male—46
female—62

arctic

数据集下载链接 http://festvox.org/cmu_arctic/packed/

maleaew, ahw, aup, awb, ksp, rms, rxr,bdl
femaleaxb, eey, ljm, slp, slt
其中aew/eey有麦克风的电流声,在频谱上可以看到稳定的背景噪声,尤其是在静音段

timit

来自美国的630人,来源于美国八个主要方言地区,因此带有不同的口音,每人说10句话,一共包含6300个句子。所有的句子都在音素级别(phone level)上进行了手动分割,标记。70%的说话人是男性;大多数说话者是成年白人。

libri-speech

下载目录http://www.openslr.org/12
为tts任务从librispeech中挑选的语音,信噪比基本在20db以上
在这里插入图片描述

AISHELL-1

340个说话人, male-161, female-179
成都

回声

https://www.openslr.org/28/

MIR歌唱

https://sites.google.com/site/unvoicedsoundseparation/mir-1k
http://mirlab.org/dataset/public/
在这里插入图片描述

NUS歌唱

https://smcnus.comp.nus.edu.sg/nus-48e-sung-and-spoken-lyrics-corpus/

对齐结果数据

keonlee9420个人训练的开源,包括以下数据集
在这里插入图片描述

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
CSTR语音克隆英语多说话人语料库工具包 概述 这个CSTR VCTK语料库包含了109个以不同口音为母语的英语使用者的语音数据。 每位演讲者要朗读大约400句句子,其中大部分是从报纸上挑选出来的,再加上彩虹段落和一段旨在识别演讲者口音的启事段落。 这些报纸文本是在先驱时报集团(Herald & Times Group)的许可下,从格拉斯哥的《先驱报》(The Herald)上摘取的。 每位演讲者阅读一组不同的报纸句子,每组句子都是通过贪婪算法选择的,该算法旨在最大限度地扩大上下文和语音覆盖范围。 彩虹段落和启发性段落对所有演讲者都是一样的。 彩虹之旅可以在国际英语方言档案(http://web.ku.edu/~idea/readings/rainbow.htm)中找到。 引出段落与用于语音重音存档(http://accent.gmu.edu)的段落相同。 语音口音档案的细节可以在http://www.ualberta.ca/~aacl2009/PDFs/WeinbergerKunath2009AACL.pdf上找到 所有的语音数据都是使用相同的录音设置记录的:一个全向头戴式麦克风(DPA 4035),采样频率为96kHz, 24位,在爱丁堡大学的半暗室中。 所有录音均转换为16位,基于STPK下采样至48 kHz,并手动端点。 该语料库的录制是为了构建基于hmm的文本-语音合成系统,特别是用于使用多个发言者训练的平均语音模型和发言者自适应技术构建基于发言者自适应的语音合成系统。 复制 该语料库是在开放数据共享署名许可(ODC-By) v1.0下授权的。 http://opendatacommons.org/licenses/by/1.0/ http://opendatacommons.org/licenses/by/summary/ 下载 http://dx.doi.org/10.7488/ds/1994 确认 CSTR VCTK语料库由: Christophe Veaux(爱丁堡大学) Junichi Yamagishi(爱丁堡大学) 克里斯汀•麦克唐纳 导致这些结果的研究部分得到了EPSRC EP/I031022/1 (NST)和EP/J002526/1 (CAF)的资助,来自RSE-NSFC的资助(61111130120)和JST CREST (uDialogue)的资助。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值