Linly-Talker容器构建

一、模型介绍

Linly-Talker 是一款集成了多种人工智能技术的数字人对话系统,它通过多模型集成、多轮对话能力、语音克隆技术、实时互动和视觉增强,为用户提供了一种全新的交互体验。

二、特点

智能和个性化 :系统不仅能够理解并生成自然语言,还能克隆用户声音,实现个性化对话。

广泛应用场景 :支持多种语言,注重隐私保护,并可应用于教育、娱乐、客服等多个场景。

视觉增强 :Linly-Talker 通过数字人生成等技术, 能够生成逼真的数字人形象,提供更加沉浸式的体验。这种视觉增强技术不仅丰富了用户的视觉体验,也在视觉上强化了交流的真实感。

开源与免费 :Linly-Talker 是一个开源项目,任何人都可以访问其源代码并自由使用。

三、构建过程

(1)更新基础软件包:

apt-get update

apt-get install -y wget unzip lsof net-tools openssh-server git git-lfs gcc cmake build-essential

(2)安装GPU依赖:CUDA

  • 下载 CUDA Toolkit 的密钥环
    • 使用 wget 工具从 NVIDIA 官方下载 CUDA Toolkit 的 GPG 密钥环。这个密钥环用于在安装过程中验证 CUDA 包的签名。
  • 安装 CUDA Toolkit 的密钥环
    • 使用 dpkg 工具安装下载的密钥环 .deb 文件。这确保了系统可以验证 CUDA 包的真实性。
  • 更新本地包索引
    • 使用 apt-get update 命令更新本地的软件包索引,确保安装时使用的是最新的包信息。
  • 安装 CUDA Toolkit
    • 使用 apt-get install 命令安装 CUDA Toolkit 12.1。-y 选项自动接受所有提示,无需手动确认。
      以下是具体的命令:
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-keyring_1.0-1_all.deb

dpkg -i cuda-keyring_1.0-1_all.deb

apt-get update

apt-get -y install cuda-toolkit-12-1
  • 配置系统环境
export PATH=/usr/local/cuda/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH
source ~/.bashrc

(3)安装Miniconda:

  • 下载 Miniconda 安装脚本

    • 使用 wget 命令从 Anaconda 的官方仓库下载 Miniconda 的安装脚本。Miniconda 是一个更小的 Anaconda 发行版,包含了 Anaconda 的核心组件,用于安装和管理 Python 包。
  • 运行 Miniconda 安装脚本

    • 使用 bash 命令运行下载的 Miniconda 安装脚本。这将启动 Miniconda 的安装过程。
# 下载 Miniconda 安装脚本
wget https://repo.anaconda.com/miniconda/Miniconda3-py310_22.11.1-1-Linux-x86_64.sh

# 运行 Miniconda 安装脚本
bash Miniconda3-py310_22.11.1-1-Linux-x86_64.sh

# 初次安装需要激活base环境
conda init bash
source ~/.bashrc
  • 注意事项:
  • 请确保您的系统是 Linux x86_64 架构,因为下载的 Miniconda 版本是为该架构设计的。
  • 在运行安装脚本之前,您可能需要使用 chmod +x Miniconda3-py310_22.11.1-1-Linux-x86_64.sh 命令给予脚本执行权限。
  • 安装过程中,您将被提示是否同意许可协议,以及是否将 Miniconda 初始化。通常选择 "yes" 以完成安装和初始化。
  • 安装完成后,您可以使用 conda 命令来管理 Python 环境和包。

如果链接无法访问或解析失败,可能是因为网络问题或链接本身的问题。请检查网络连接,并确保链接是最新的和有效的。如果问题依旧,请访问 Anaconda 的官方网站获取最新的下载链接。

(4)从 github 仓库克隆项目:

  • 克隆存储库:

    • git clone https://github.com/Kedreamix/Linly-Talker.git --depth 1
    • 这个命令使用 git clone 从指定的 GitHub 地址克隆 "Linly-Talker" 项目。--depth 1 参数告诉 Git 只下载最新的历史记录,这减少了需要下载的数据量,使得克隆过程更快。如果没有 --depth 参数,默认情况下 Git 会克隆整个项目的所有提交历史。
  • 切换目录:

    • cd Linly-Talker
    • 这个命令使用 cd(change directory)命令切换当前工作目录到刚才克隆的 "Linly-Talker" 目录中。这意味着接下来执行的所有命令都是在该项目目录下执行。
# 克隆 Linly-Talker 项目,只包含最新的提交历史
git clone https://github.com/Kedreamix/Linly-Talker.git --depth 1

# 切换到克隆的项目目录中
cd Linly-Talker

请注意,如果 https://github.com/Kedreamix/Linly-Talker.git 这个链接不存在或者无效,git clone 命令将不会成功克隆项目,并且会报错。请确保链接是有效的,并且您有足够的权限访问该存储库。

(5)创建虚拟环境

# 升级 pip
python -m pip install --upgrade pip

# 更换 pypi 源加速库的安装
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

# 创建一个名为 linly_talker 的新虚拟环境,并指定 Python 版本为 3.10.8
conda create -n linly_talker python=3.10.8
# 激活新创建的虚拟环境
conda activate linly_talker

(6)下载预训练模型:

  • 切换目录

    • cd /Linly-Talker
    • 这个命令用于切换当前工作目录到 /Linly-Talker。这通常是一个项目的根目录,其中包含了项目的所有文件和子目录。
  • 安装 Python 包

    • pip install modelscope -i https://pypi.tuna.tsinghua.edu.cn/simple
    • 这个命令使用 pip 工具安装名为 modelscope 的 Python 包。-i 参数指定了包的安装源为清华大学 TUNA 镜像站的 Python 包索引。使用镜像站可以加快下载速度并减少网络延迟。
  • 执行脚本

    • sh scripts/download_models.sh
    • 这个命令执行位于 scripts 目录下的 download_models.sh 脚本文件。通常,这类脚本文件用于自动化下载或处理项目所需的数据、模型或其他资源。
# 切换到 Linly-Talker 项目的根目录
cd /Linly-Talker

# 使用清华大学 TUNA 镜像站作为源,安装 modelscope 包
pip install modelscope -i https://pypi.tuna.tsinghua.edu.cn/simple

# 执行下载模型的脚本
sh scripts/download_models.sh

(7)安装模型依赖库:

  • 切换到项目目录
# 切换到项目工作目录
cd /Linly-Talker
  • 安装pytorch
    conda install pytorch torchvision torchaudio pytorch-cuda=12.1 -c pytorch -c nvidia
    
  • 安装FFmpeg
# 在base环境中安装特定版本的FFmpeg
conda install ffmpeg==4.2.2
  • 安装curl_cffi
# 安装curl_cffi
pip install curl_cffi
  • 安装TensorBoard nightly版本
# 安装TensorBoard的nightly版本,使用阿里云的PyPI镜像源
pip install tb-nightly -i https://mirrors.aliyun.com/pypi/simple
  • 安装WebUI依赖
# 安装WebUI界面所需的Python依赖库
pip install -r requirements_webui.txt
  • 安装OpenMIM
# 安装OpenMIM,一个用于管理模型和依赖的工具
pip install --no-cache-dir -U openmim
  • 安装MMEngine
# 安装MMEngine,一个通用的深度学习训练框架
mim install mmengine
  • 安装MMCV
# 安装MMCV(MegEngine Model Center Vision),至少2.0.1版本
mim install "mmcv>=2.0.1"
  • 安装MMDetection
# 安装MMDetection,至少3.1.0版本的目标检测框架
mim install "mmdet>=3.1.0"
  • 安装MMPose
# 安装MMPose,至少1.1.0版本的人体姿态估计框架
mim install "mmpose>=1.1.0"
  • 安装PyTorch3D
# 安装PyTorch3D,直接从GitHub仓库安装
pip install "git+https://github.com/facebookresearch/pytorch3d.git"
  • 安装音频处理依赖
# 更新APT包索引并安装音频处理相关的系统库
apt-get update
apt-get install libasound-dev portaudio19-dev libportaudio2 libportaudiocpp0
  • 安装NeRF相关依赖
# 安装NeRF-based项目所需的Python依赖库
pip install -r TFG/requirements_nerf.txt

(8)运行项目

cd /Linly-Talker
python webui.py
  • 4
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值