GPT-SoVits: 上线两天获得了1.4k star的开源声音克隆项目,1分钟语音训练TTS模型

RVC-Boss与Rcell合作的GPT-SoVITS项目,利用AI技术只需1分钟训练就能实现高仿真度的语音转换,支持多种语言,附带WebUI工具和FFmpeg依赖。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

近期,RVC变声器创始人 (GitHub昵称:RVC-Boss)开源了一款跨语言音色克隆项目 GPT-SoVITS。项目一上线就引来了互联网大佬和博主的好评推荐,不到两天时间就已经在GitHub上获得了1.4k Star量。

项目地址:https://github.com/RVC-Boss/GPT-SoVITS

据说,该项目是RVC-Boss 同Rcell (AI音色转换技术Sovits开发者)共同研究,历时半年,期间遇到了很多难题而开发出来的一款全新的低成本的易用的音色克隆工具。

接下来小编带大家一起看看这款新型的音色克隆工具RVC-Boss有何特别之处!

项目介绍

GPT-SoVITS 是一款强大的支持少量语音转换、文本到语音的音色克隆模型。支持中文、英文、日文的语音推理。

据开发者及各大博主测验,仅需提供 5 秒语音样本即可体验达到 80%~95% 像的声音克隆。若提供 1 分钟语音样本可以逼近真人的效果,且训练出高质量的 TTS 模型!

目前已获得 1.4k Star,看到很多人对其评价为目前最强中文语音克隆工具。

特征:
  • • 零样本 TTS:输入 5 秒语音样本并体验即时文本到语音转换。

  • • Few-shot TTS:仅用 1 分钟的训练数据即可微调模型,以提高语音相似度和真实感。

  • • 跨语言支持:用与训练数据集不同的语言进行推理,目前支持英语、日语和中文。

  • • WebUI工具:集成工具包括语音伴奏分离、自动训练集分割、中文ASR和文本标注,帮助初学者创建训练数据集和GPT/SoVITS模型。

使用方式

如果是 Windows 可直接开箱使用。

只需下载项目中的 prezip,解压并双击 go-webui.bat文件 即可启动 GPT-SoVITS-WebUI,然后通过界面方式操作即可。

项目环境依赖:

GPT-SoVITS 依赖于开源音视频全能转码工具 FFmpeg。这个需要我们根据不同的系统进行手动安装。

conda 环境安装:

conda install ffmpeg

Ubuntu/Debian 用户:

sudo apt install ffmpeg
sudo apt install libsox-dev
conda install -c conda-forge 'ffmpeg<7'

Mac 操作系统用户:

brew install ffmpeg

Windows操作系统用户:

需手动下载ffmpeg.exe和ffprobe.exe并将其放置在 GPT-SoVITS 根目录下。

ffmpeg.exe下载地址:https://huggingface.co/lj1995/VoiceConversionWebUI/blob/main/ffmpeg.exe

ffprobe.exe下载地址:https://huggingface.co/lj1995/VoiceConversionWebUI/blob/main/ffprobe.exe

预训练模型下载放置位置:

具体使用步骤:

1、打开项目根目录,将预置克隆音频放置根目录,然后双击go-webui.bat 运行项目。(可以发现它实际上执行了Python脚本webui.py)

2、语音切割演示,将音频文件路径填入“音频自动切分输入路径”下,点击“开启语音切割”

最终的切分结果会存放在项目Output下的slicer_opt目录下(切分成了20份)

3、开始转写,将切分路径填入“中文批量离线ASR工具”输入路径下,转写结果文件会在Output下的asr_opt目录下生成

4、切换到GPT-SoVITS-TTS标签,填写模型名称(角色名),再分别填入之前生成的切分目录和转写目录路径,开启文本获取-开启SSL提取-语义Token提取(这3个步骤,一步一步来,一个完成之后再点击下一个),最后开启一键三连

然后转到“微调训练”,设置适合自己显卡的显存,“开启SoVits训练”,然后SoVits训练结束后,再“开启GPT训练”

5、选择“推理”标签栏,设置GPT和SoVits的模型,勾选“是否开启TTS推理WebUI”,等一会回自动跳转到一个新的“推理界面”

6、填写参考音频信息(音频文件、音频文本、语种)、合成音频信息(音频文本,语音),点击合成语音,最后就完成了语音转换。

总结

GPT-SoVITS 支持跨语言,集成了声音伴奏分离、自动训练集分割、中文ASR和文本标注等辅助工具。

仅需1分钟的训练数据,即可微调模型,提高语音相似性和真实感。

整体的体验还想相当不错的,希望未来应用的领域会越来越多,更新迭代会越来越完善。

文章来源于Python兴趣圈 ,作者方圆也有小天地

### GPT-SoVITS声音克隆工具概述 GPT-SoVITS是一个用于创建高度逼真语音合成模型的强大工具,能够精确复制特定个体的声音特征[^1]。 ### 安装环境配置 为了顺利运行GPT-SoVITS项目,需先搭建合适的开发环境。推荐使用Anaconda来管理Python版本及相关依赖库: ```bash conda create -n sovits python=3.8 conda activate sovits pip install torch==1.9.0 torchaudio===0.9.0 -f https://download.pytorch.org/whl/torch_stable.html pip install -r requirements.txt ``` 上述命令会安装PyTorch以及其它必要的软件包,确保所有组件兼容并正常工作。 ### 数据集准备 高质量的数据对于训练效果至关重要。应收集目标人物清晰无背景噪音的音频片段作为样本数据源。每条记录建议长度控制在几秒到十几秒之间,并保持一致的采样率(通常为22kHz)。这些素材将被用来提取声纹特征,进而构建个性化的发声模型。 ### 训练过程简介 完成前期准备工作之后就可以启动模型训练流程了。具体操作如下所示: ```python from utils import preprocess_dataset, train_model # 对原始音频文件执行预处理操作 preprocess_dataset('path/to/audio/files') # 开始正式训练阶段 train_model(config='config.json', checkpoint_dir='./checkpoints') ``` 此部分涉及复杂的算法运算,在GPU支持下可以显著加快收敛速度。经过若干轮迭代优化后即可获得初步可用的结果。 ### 测试与应用实例 当模型训练完毕并通过验证测试后便能投入实际应用场景当中去了。下面给出一段简单的调用代码供参考: ```python import os from text_to_speech import TTSModel model_path = './checkpoints/best.pth' output_wav = 'generated_audio.wav' tts = TTSModel(model_path=model_path) audio_data = tts.synthesize(text="这是一句测试语句") os.write(output_wav, audio_data) print(f"已成功生成音频文件 {output_wav}") ``` 这段脚本展示了如何加载已经训练好的权重参数并将指定的文字转换成对应的语音输出。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值