手把手教你搭建VideoReTalking的AI数字人项目

提示:本文的安装包下载时间为2023-8-15日,项目还在更新中,可能会有出入,仅供大家参考。


准备工作

提示:先下载好项目预先需要各种安装包与预训练模型

软件使用:Anaconda 负责python环境管理
编辑器:Visual Studio Code(因为低版本的PyCharm 编辑器不支持python3版本)
预训练模型:https://github.com/OpenTalker/video-retalking/releases/tag/v0.0.1

注意:如果你跟我一样家庭网速感人,可以考虑使用: https://ghproxy.com/ 加速代理 则可以加速下载包的速度 例如地址:https://ghproxy.com/https://github.com/***/***.zip 这种用法,可以加速下载预训练安装包

一、开始配置

创建选择一个磁盘然后一个文件夹

//使用git  拉取 代码
git clone https://kgithub.com/vinthony/video-retalking.git
//代码拉取完成之后打开video-retalking文件夹

这些就是预训练的模型
在这里插入图片描述

将预训练模型加入到:checkpoints文件夹中
在这里插入图片描述

二、canda环境配置

1.创建环境

// conda 创建一个名叫:videoing的环境,并且该环境的py版本为3.8
conda create -n videoing python=3.8
//激活python的环境  输入环境的名称
conda activate videoing

作者的环境与镜像源(仅供参考)

这是作者镜像源:
在这里插入图片描述
以下是作者的环境下安装的包,可以供大家参考
在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
主要:以上是作者完成所有环境配置后的包的列表,可以供大家参考

2.安装环境

// conda 下载  ffmpeg
conda install ffmpeg
// 警告!!!  下载火炬驱动因为训练需要驱动GPU  这个要根据自己的GPU版本来进行微调  切记擅自下载调用 
# Please follow the instructions from https://pytorch.org/get-started/previous-versions/
# This installation command only works on CUDA 11.1
pip install torch==1.9.0+cu111 torchvision==0.10.0+cu111 -f https://download.pytorch.org/whl/torch_stable.html

配置属于自己的torch 方法

提示:本教程默认是N卡教程,没接触过A卡。
安装:pytorch

//第一步:安装N卡驱动(某度查询)否则又要出教程了
//第二步:查询自己显卡适用的 版本
nvidia-smi   

在这里插入图片描述

pytorch的各种版本

根据自己的显卡版本进行下载

继续下载预先的包

注意:我不知道是包的问题还是我源版本的问题,反正下载了还是出了问题,故此这里做一个提示

 // 下载系统预算的配置包
pip install -r requirements.txt

//这个是项目默认给的下载的包,但是根据git反馈说法貌似有问题
basicsr==1.4.2
kornia==0.5.1
face-alignment==1.3.4
ninja==1.10.2.3
einops==0.4.1
facexlib==0.2.5
librosa==0.9.2
dlib==19.24.0
gradio>=3.7.0
numpy==1.21.6

这是在git上的反馈的内容
在这里插入图片描述
注意:可以根据自己的需求进行选择,如果在运行过程中遇到 ModuleNotFoundError: No module named ‘****‘ 这个报错
解决办法则是:

pip3 install  这里填写模块    -i  https://mirrors.aliyun.com/pypi/simple  --trusted-host mirrors.aliyun.com

3.启动推理

推理有两种方式,一个是命令行,一个是使用web方法。

//这是命令行的方式进行启动
python inference.py  --face examples/face/1.mp4  --audio examples/audio/1.wav  --outfile results/1_3.mp4

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
运行状态
在这里插入图片描述
完成运行的状态的

在这里插入图片描述
注意:推理步奏一共有6步,可万一报错,可以根据报错出现在哪一步,进入git寻找答案


总结

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
这里参考这些参数可以进行对自己项目进行调整。

  • 9
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 9
    评论
当然可以!以下是手把手搭建 YOLOv5 的步骤: 1. 准备工作: - 确保你的电脑已经安装了 Python 3.8 或更高版本。 - 安装 PyTorch:可以根据你的操作系统和 CUDA 版本选择合适的安装命令,例如: ```shell pip install torch torchvision torchaudio ``` - 安装其他依赖库: ```shell pip install opencv-python matplotlib numpy ``` 2. 下载 YOLOv5 源代码: - 在终端中运行以下命令来克隆 YOLOv5 仓库: ```shell git clone https://github.com/ultralytics/yolov5.git ``` 3. 安装依赖库: - 进入 yolov5 目录: ```shell cd yolov5 ``` - 安装依赖库: ```shell pip install -r requirements.txt ``` 4. 准备数据集: - 准备好你的训练数据集,并将图像和对应的标签文件放入一个文件夹中。 5. 配置模型和数据: - 编辑 `yolov5/models/yolov5s.yaml` 文件,根据你的需求进行配置,例如设置 `nc` 参数为你的类别数量。 - 编辑 `data.yaml` 文件,设置 `train` 和 `val` 的路径,并配置类别数量和类别名称。 6. 训练模型: - 在终端中运行以下命令来开始训练模型: ```shell python train.py --img 640 --batch 16 --epochs 100 --data data.yaml --cfg models/yolov5s.yaml --weights '' ``` - 这个命令将使用默认参数来训练 YOLOv5 模型,你可以根据需要进行调整。 7. 测试模型: - 在终端中运行以下命令来测试模型效果: ```shell python detect.py --source your_image.jpg --weights runs/train/exp/weights/best.pt --conf 0.4 ``` - 这个命令将使用训练好的模型对指定图像进行目标检测,你可以调整 `--conf` 参数来控制检测结果的置信度阈值。 以上就是搭建 YOLOv5 的基本步骤,希望对你有帮助!如果有任何问题,请随时提问。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值