一、模型介绍
Linly-Talker 是一款集成了多种人工智能技术的数字人对话系统,集成了各种技术,例如 Whisper、Linly、微软语音服务和 SadTalker 会说话的生成系统。该系统部署在 Gradio 上,用户可通过上传图像与 AI 助手进行互动,可以根据自己的喜好进行自由的对话或内容生成。Linly-Talker通过多模型集成、多轮对话能力、语音克隆技术、实时互动和视觉增强,为用户提供了一种全新的交互体验。
二、 模型搭建流程
基础环境最低要求说明:
环境名称 | 版本信息1 |
---|---|
Ubuntu | 22.04.4 LTS |
Cuda | V12.1.105 |
Python | 3.10.8 |
NVIDIA Corporation | RTX 3090 |
1. 根据需求选择主机和镜像,一键创建实例
租用实例 --》一键使用 --》GPU 数量选择 1 张 RTX 3090 或者 2 张 RTX 3060 --》应用社区 --》Linly-Talker,即可在平台创建实例。
(1) 选择 GPU 数量为 1 张 RTX 3090 的方法
(2)选择 GPU 数量为 2 张 RTX 3060 的方法
(3) 进入应用社区,选择 Linly-Talker 大模型的方法
2. 点击“项目实例”进入创建的实例,点击“Web SSH”
3. 进入网页端命令行
4. 启动 web 页面
# 切换到 Linly-Talker 项目目录中
cd Linly-Talker
# 激活 linly_talker 的虚拟环境
conda activate linly_talker
# 运行 webui.py 文件
python webui.py
5. 获取端口号
6. 进入 web 页面
将获取到的链接复制到本地浏览器:
# 比如当前获取的地址如下:
http://xn-a.suanjiayun.com:30493