上篇介绍了“个性化语音模型训练实现”,这里介绍如何使用已经生成好的个性化语音音色模板来将文本合成为语音。从实践的结果来看,合成的语音在语调语气、以及发音吐字方面与训练样本本人完全一致,肉耳很难分辨出来。
首先导入依赖包,tempfile 包是 Python 标准库的一部分,提供了一组用于创建临时文件和目录的接口,建议在 with 语句中使用该对象,以确保在完成操作后能够被正确清理;mediainfo 包用于分析视频、音频和其他多媒体文件的详细信息,包括编解码器、分辨率、比特率、时长、采样率、字幕轨道等等信息;modelscope 包是阿里云开发的一个模型开放平台,提供了大量的机器学习和深度学习模型,涵盖了计算机视觉、自然语言处理、语音识别等多个领域。
import io
import os
import tempfile
from pydub.utils import mediainfo
from modelscope.pipelines import pipeline
from modelscope.outputs import OutputKeys
from modelscope.utils.constant import Tasks
from modelscope.models.audio.tts import SambertHifigan
接下来创建一个字典类型的配置项,voice_name 为语音风格标识,F7 代表这是一个特定的音色或发音人;am_ckpt 为声学模型的 checkpoint 路径,它指向用户音色模板的工作目录;am_config