本文已首发于 秋码记录
微信公众号:你我杂志刊
如果你也想搭建一个与秋码记录
一样的网站,可以浏览我的这篇 国内 gitee.com Pages 下线了,致使众多站长纷纷改用 github、gitlab Pages 托管平台
秋码记录
网站使用的主题是开源的,目前只在github.com
开源。
hugo-theme-kiwi
开源地址:https://github.com/zhenqicai/hugo-theme-kiwi
一、DiffRhythm:颠覆音乐创作的AI黑科技
DiffRhythm是由西北工业大学音频语音与语言处理实验室(ASLP@NPU)与香港中文大学(深圳)联合开发的开源音乐生成模型,其采用全扩散架构,能够在10秒内生成4分45秒的高质量双轨立体声音乐(包含人声与伴奏) 。该模型以非自回归结构实现极速推理,支持纯文字风格描述生成音乐(如"Jazzy Nightclub Vibe"或"Arctic research station, theremin auroras"等创意场景) ,且最低仅需8GB显存即可本地部署。
技术亮点:
- 端到端生成:无需多阶段拼接,直接输出完整歌曲;
- 句级歌词对齐:通过音素映射实现人声与歌词精准同步;
- 压缩鲁棒VAE:支持从MP3等压缩格式还原无损音质;
- 多模态输入:兼容文本提示、参考音频、歌词等多类型输入。
本地部署
我电脑依旧是使用python 3.10.9
,而仍然使用python3
自带的venv
模块来搭建python 虚拟环境
。
当然咯,你也非得要跟我一样,你也可以使用python 3.11.X
、python 3.12.x
,用anaconda
或miniconda
来构建python 虚拟环境
,这一点,并没有什么特定要求。
创建python 虚拟环境
你可以在电脑任一磁盘较为宽裕
,来构建一个python 虚拟环境
。
下载DiffRhythm
推理代码
你得确保你的电脑安装好了git
,否则的话,将无法通过以下命令进行clone DiffRhythm
推理代码。
至于这么安装git
工具,就不在这里进行赘述了,毕竟我前几篇文章是有讲解过的。
git clone https://github.com/ASLP-lab/DiffRhythm.git
cd DiffRhythm
安装espeak-ng
DiffRhythm
生成的音乐包含人声演唱的歌词,这需要将文本歌词转化为音素序列(如国际音标IPA
),并精确映射到音频的时间轴上。eSpeak-NG
作为开源音素合成引擎,在此环节发挥关键作用:
- 音素解析:将用户输入的歌词(如中文、英文)转换为标准音素表示,例如中文
你好
→/ni haʊ/
,确保模型理解发音规则。 - 发音规则库支持:
eSpeak-NG
内置100+语言的音素规则库,能够处理多语言歌词混合场景(如中英双语歌曲),避免发音错误。 - 对齐算法依赖:DiffRhythm通过句子级对齐机制,将音素序列映射到潜在表示的特定位置,确保生成的歌声与歌词在时间轴上严格同步。eSpeak-NG提供底层音素时间戳数据支撑这一过程。
我们直接下载espeak-NG
官方编译好的安装包,https://github.com/espeak-ng/espeak-ng/releases。
双击刚刚下载的espeak-ng.msi
,一路Next
下去就好了。
还需将espeak-ng
安装路径添加到PATH
环境变量中。
安装项目所需的依赖
这一步是必不可少的,毕竟现代的项目都是集成
项目,换句话说,一个大项目或多或少需要去集成
优秀的框架
及工具库
等。
pip install -r requirements.txt
在国内,我们还是先设置一个国内镜像源,以便下载依赖库能够加快些,毕竟,pypi.org
在国内访问起来真是一言难尽啊
,就更别说再去pypi.org
下载什么依赖库了。
下载模型
我们可以通过HuggingFace.co
的国内镜像站hf-mirror.com
进行下载模型。
DiffRhythm-base
模型地址:https://hf-mirror.com/ASLP-lab/DiffRhythm-base/tree/main
我们仍然是通过git
工具来下载模型,所以,你的电脑得提前安装好git
,是很有必要的。
git clone https://hf-mirror.com/ASLP-lab/DiffRhythm-base ASLP-lab/DiffRhythm-base
运行python infer/infer.py
当模型下载完成了之后,这时,我们便可以通过以下命令,来生成音乐了。
python infer/infer.py --lrc-path infer/example/eg_cn.lrc --ref-audio-path infer/example/eg_cn.wav --audio-length 95 --repo_id ASLP-lab/DiffRhythm-base --output-dir infer/example/output --chunked
倘若,你运行了上述命令后,也出现了与下图一样的错误。
中途还会出现其他的错误,解决方案请移步秋码记录与本文同标题的文章!
我们可以通过pip torch show
来查看当前安装的torch
版本信息,从下图,我们可以看出,requirements.txt
文件中的torch
是cpu
版本,所以,我们先卸载它,而后安装CUDA
版本的torch
。
pip uninstall torch torchaudio torchvision
等把CPU
版的torch
卸载完成后,我们执行以下命令来安装CUDA
版本的torch
。
pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cu124
之后,我们再次查看torch
版本信息时,这回,就是项目所需的了。
CUDA
版本的torch
也安装好了,这回总该可以运行成功了吧。
然而,事情总是与你想的不是那么一回事。要是,能按我们的想法进行下去,就不会有事与愿违
这个成语了,人生也就不会有那么多的不如意了
。
从报错的信息来看,说我们的系统没有安装espeak
,我们明明却安装了,可项目为什么会找不到呢?
还是按图索骥
的在抛出错误的这些文件修改。
中途还会出现其他的错误,解决方案请移步秋码记录与本文同标题的文章!
保存修改好的文件后,我们再次运行,其实,经过几次的挫败
,我们已然对这次还会抛出什么幺蛾子
的问题,已不再是那么惊愕
了,而是有了一种如果在报错的话,那就明天再弄吧,先看会儿电视剧,别整这个破玩意儿,这个人都郁闷了,那就不好了。
可是,这回却出乎你的意料
,而又在情理之中
,却运行成功了。
那么,我们使用DeepSeek`为我们编写一首歌词。
再次运行它。