声音克隆GPT-SoVITS 2.0软件和详细的使用教程!

天命人,请允许我先蹭个热点!

原始声音:

播放

克隆声音:

播放

文章写了一半,被《黑神话悟空》刷屏了。突发奇想,用里面的声音来做个素材试试看。

B站捞了一点声音素材,随便剪一剪,训练一把过,没有调优,就直接拿来用了。

情绪还差点意思,音色克隆的还不错。

下面进入正题!

声音克隆项目迎来2.0版本了!

目前,这个软件,应该是我们能接触的最强的声音克隆软件。

主要特点是高效,简单,效果也好

快速模式,只要十秒音频,无需训练,直接克隆声音。

训练模型,也只要一分钟的左右的音频,十几分钟时间就能搞定。

本文,就不在过多介绍这个项目了,可以参考之前的两篇文章。

声音克隆:一个牛逼的新项目,入手难度低,相似度高!》

声音克隆: GPT-SoVITS软件更新+新教程!

今天主要是告诉大家,软件更新了,然后软件和教程一并奉上。

软件更新

从年初发布一个版本,到现在已经过去大半年了,其中有不少更新。根据官网文档介绍。

V1版本的主要功能和V2版本的主要更新如下。

V1主要功能:

  • 由参考音频的情感、音色、语速控制合成音频的情感、音色、语速
  • 可以少量语音微调训练,也可不训练直接推理
  • 可以跨语种生成,即参考音频(训练集)和推理文本的语种为不同语种

V2主要更新:

  • 低音质参考音频合成出来音质更好
  • 底膜训练集增加到5k小时,zero shot性能更好音色更像,所需数据集更少
  • 增加了韩语和粤语,中日英韩粤5个语种均可跨语种合成
  • 更好的文本前端,V2中英文加入多音字优化。

当然,这只是主要更新,还有很多细节上的完善和优化。比如UI上使用起来明显简单了很多。优化了预设值,让整个训练过程,更不容易出错了。

使用教程

发一个软件很简单,只要复制黏贴就可以了。但是要把整个流程说清楚还是要花点时间。

离上一次写教程时间已经有很长了,我也是花了好一会儿才把整个流程回忆起来。我觉得有必要重写一个详细的使用教程,其实对我自己而言是详细的笔记。

脑子越来越不行了,常常想不起自己写的代码和文章,只能靠自己的笔记引导自己了。哈哈!

给未来的自己的看的文章,我肯定会写的比较认真。每个环节的输出输出关注点我都会写清楚。但是为了减少干扰,一些不必要,不影响主流程的旁支,我会砍掉。

抓主线,可以降低大家的脑力消耗。

开始前,简单的说一下,硬件需求。

推荐配置为:一台装有Windows11和英伟达独立显卡(显存6G+)的中高配电脑。

相比大语音模型和大的绘画模型,这个项目配置要求并不是很高。Linux和Mac用户可以看官方文档,用也是可以用滴,我就不专门做介绍了。

软件见文末,获取软件后,我就进入正题了。

整个使用过程可以分为素材预处理和微调训练两个部分,微调训练又分为数据格式化,模型微调,模型推理三个部分。

素材预处理

这个阶段不是核心阶段,但是也至关重要。首先我们需要准备一个段60秒左右的音频,我这里用的还是从别人那里搞来的那个音频,比较好用。(后来在整得悟空的旁白)

这个音频需要是单个人说话的音频,没有噪音,没有配音,没有背景音乐。

如果有的话,需要先进行预处理。这个软件也自带了一个使用UVR5进行人声伴奏分离,去混响,去延迟的工具。

如何得到一个干净的声音,其实也是一个复杂的问题。展开可以讲好多,所以就不展开了。

直接找一段干净的声音,把这个流程先跑通更重要。

另外,提一嘴,剪映的降噪和人声分离使用方便效果也不错。

当准备好声音之后,就可以开始进行预处理了。

预处理主要做两件事情:切割和转换

切割

切割是把一个长的音频文件,切割成若干段短的音频,方便后续处理。

具体操作如下图:

①输入音频文件地址

首先输入声音文件的地址,这个地址可以在文件管理器的地址栏复制。如果你有多个声音文件,这里可以填写文件夹的路径,如果你是单个,就写具体的单个文件的路径。

比如我这里用的是单个文件,名字叫nana.wav。所以我的路径,是以这个文件为结尾。

如果你是文件夹里放了很多声音文件,那么这里只要直接写到output这个文件夹就可以了。

当然,放音频的文件夹不一定是output,可以在任意位置,用任意名称。只要这里配置的路径正确即可。

②输入保存地址

这个地址会自动设置,最好不要改变。只要记住这个路径在output文件夹下面的slicer_opt文件里面就可以了。

③点击开启语音切割。

设置好两个地址之后,还有8参数可以调整,但是对于不懂的人来说,默认配置就是最佳配置,所以除非你知道他是干什么,否则就不要修改。

所以,只要设置好上面两个地址,然后直接点击巨大的黄色按钮就可以了。

运行结束之后,界面底部会显示“切割结束”。

为了验证操作是否真的成功,可以查看output\slicer_opt文件夹。

里面有很多wav文件,就证明这个步骤已经彻彻底底的成功了。

转换

其实就是ASR处理,生成音频文件对应的文字。然后生成一个带有声音文件地址,对应文字内容,对应语言类型的清单。保存在一个叫slicer_pot.list的文本文件里面。

ASR(Automatic Speech Recognition,即自动语音识别)是一种将语音信号转化为文本的技术。

具体操作如下图:

这个步骤,其实一切参数也是默认的,直接点击开启离线批量ASR按钮就可以了。

① 输入文件夹路径,就是我们上一步的输出文件夹路径,里面放的是音频片段。

②输出文件夹路径,执行完成后会在这里生成一个.list文件。

③ASR模型选择。中文默认用达摩ASR,英文用 OpenAI 的 Whisper 。

④ASR语音设置。中文汉语使用zh,粤语的话,使用yue。如果前面选的是Whisper,这里会有5种语言的候选项。

⑤开始离线批量ASR。点击按钮,就立马开始工作了。

这个过程并不会消耗太多,应该可以很快完成。

完成之后会在output\asr_opt下面生成一个叫slicer_opt.list的文本文件。

可以用任何文本工具打开,里面的内容大致如下:

output\slicer_opt\nana.wav_0000000000_0000133440.wav|slicer_opt|ZH|在十二岁以前呢,我从来没有想过自己会演戏。
output\slicer_opt\nana.wav_0000133440_0000288320.wav|slicer_opt|ZH|我八岁的时候,立志成为一个像马悠悠一样的大提琴演奏家。

可以看到,每行通过“|”符号分割成了四部分。这四部分分别是路径,slicer_opt,语言类型,文字内容。

后面的步骤会用到这个文件。

语音文本校对

这个步骤,其实对上一个步骤的补充。如果你的声音质量比较好,自动识别转换的效果也会相当不错,就不需要手动修改了。

如果你对识别效果没有信心,可以勾选“是否打开打标WebUI”。

勾选之前,需要先填写.list文件的路径。这个路径一般也是自动生成。如果你有多个项目,可以手动指定路径。

勾选之后,会自动打开一个新的网页。网页显示内容如下:

只要比对左边的文字和右边声音中说话的内容是否一致,一致就不用改。如果不一致,修改左边的文字内容。

全部检查修改完成之后,保存文件就好了。

数据格式化

素材预处理完成之后,就可以对生成的数据进行格式化了。

点击“1-GPT-SoVITS-TTS”这个标签页,切换到第二个大步骤的功能页面。

切换之后,需要修改一下实验名。命名没有特别要求,好记就行。最好是英文。

另外,可以看到显卡型号,版本默认勾选V2。

另外还有G和D这两个预训练模型的路径,这里会自动设置,无需修改。

开始之前先到GPT_SoVITS\pretrained_models文件下面确认一下,已经包含如下的模型文件。

正常情况下,一键运行包里面已经包含了这些模型,你只要知道,下面的步骤需要用的模型放在这里就可以了。

然后继续往下看,这里又分成了三个TAB,分别是格式化,微调训练,推理。

下面我们要做的是格式化。

格式化需要指定两个路径,一个是标注文件地址,一个切割后音频文件所在地址。

同时也分成了三个小步骤,这里实际操作比较简单。

所有参数会自动生成。只要点击左下方的“开启一键三连”按钮即可。

执行日志如下:

执行过程如上,就证明运行正常,如果出现Error就是正面出错了。错误一般是路径问题导致!

执行成功之后,logs/nana文件下会出现1-6的文件夹和文件。

文件夹nana是我们上面填写的实验名。

日志和文件生成全部正常,就可以进行下一步了。

微调训练

总的来说,前面的所有步骤,都是准备工作。准备工作做完之后,终于进入正题了。

正题就是训练,这个训练其实是基于预训练模型的微调训练。这里需要做两类训练,一个是SoVITS训练,一个是GPT训练。

点击1B-微调训练切换到微调界面,然后按下图进行操作。

SoVITS训练和 GPT训练的具体操作如下:

这两个训练,会需要用到显卡,相对来说是整个过程中耗时比较多的部分。

有英伟达独立显卡,显卡还可以的情况下,其实也很快。比如在3060下面,只要几分钟就搞定了。

相对动不动就几个小时,几天,几个月的训练。这个微调可以说是极速微调了。

这个步骤也有一些参数,其实大部分情况下无需修改,可以适当调Batch_size 和total_epoch。数值偏离预设值很大的尝试,基本没什么必要。

这两个训练,不分前后,可以单独训练。

SoVITS训练日志如下:

训练过程成中会生成 logs_s2文件夹。

GPT训练训练日志如下:

训练过程成中会生成 logs_s1文件夹。

训练完成之后,页面上会有“XX训练完成”的提示。页面提示不一定准确,可以看黑色日志窗口,只要没有出现error,exception这些异常提示,输出内容简单清晰,那就是成功。

运行成功之后会生成对应的模型。

模型保存路径如下:

我们使用的是V2训练,所以保存模型的文件夹以V2结尾。如果训练配置中,配置的为V1版本,模型就会保存在上面的文件夹中了。

这一切,都是全自动完成,无需你手动创建文件。

打开这两个文件夹,确认里面已经生成了模型文件。就基本证明微调训练成功了,接下来就是验证微调效果。

推理

所谓推理,其实就是应用训练好的模型。

点击1C-推理切换到微调界面,然后按下图进行操作:

①刷新模型路径,这个别忘了点。只有刷新后才能看到自己训练的模型。

②选择GPT模型,一般选数字最大的,比如这里的e15。

③选择SoVITS模型,同样道理,选尾巴上数字最大的模型。

④勾选开启TTS推理界面,勾选后会自动跳出一个新的界面。

在跳出的新界面中,依旧有刷新模型和模型列表选项。前面设置过,这里就不用设置了。如果你有很多模型的情况下,可以在这个界面单独切换模型。

在这个界面中,主要完成两个操作,一个是设置参考声,一个是填写文字合成克隆声音。

参考声音设置:

在③的地方上传一个几秒钟的声音文件作为参考声音,然后在④的地方输入这个参考声音对应的文本内容。这一部分的设置就算完成了。

④这里的操作也并非必须,不填也不会爆炸。

参考声音,可以从前面切割好的音频文件中随便选一个。当然最好选清晰且有代表性的片段。所谓代表性,就是最能体现这个克隆对象音色的部分。

设置好参考对象之后,就可以生成克隆声音了。

具体设置如下:

①输入文本,就是输入要合成的内容。稍微长点也没关系,会自动切割处理。

②设置参数,参数一般不用改,输入的是中文,语言就选中文。怎么切,是指点文本切割的方式,语速可以根据自己的需要调整。K,P,T参数一般不用调。

③合成语音,点击按钮,一会儿就搞定了。

④播放语音,最后点击播放验证效果。

到这里,整个声音克隆的准备,微调,合成就已经完成了。GPT-SoVITS的声音克隆,是基于文本转语音的克隆方式,而不是直接改变语音的音色。直接改变音色,我们一般归类为变声,比如我们之前介绍的RVC项目,这个项目类似的功能还在“施工中”可以期待一下。

因为我常年倒腾这些项目,已经练就了一些被动避坑技能。所以在使用这个项目的过程中非常丝滑,并没有遇到任何问题。所以也没有太多异常处理建议。如果你们遇到了,可以留言,或者阅读官方手册。

从拿到软件,开始自己跑demo,记录完整的过程,写文章,修改内容,花了三天时间,打了4000多字。看到这里的可以动动手指哦。

收工收工,玩得愉快!

软件和官方文档

见博客文末:声音克隆GPT-SoVITS 2.0软件和详细的使用教程! – 托尼不是塔克

  • 18
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值