AlphaPose win10安装运行

本文详细介绍了在Windows10环境下安装AlphaPose人体姿态估计系统的过程,包括项目代码下载、依赖包安装、PyTorch配置、模型下载及运行方法。适合对计算机视觉和深度学习感兴趣的研究者和开发者。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

我的电脑配置

操作系统:Windows 10
cuda版本:cuda_10.0.130_411.31_win10
cudnn版本:cudnn-10.0-windows10-x64-v7.6.5.32
python版本:python3.7.7
Git版本:Git for Windows 2.28.0

安装步骤

1 下载项目代码

  1. 在文件夹内右键,选择git bash here
  2. 输入以下代码,安装PyTorch版本项目
git clone -b pytorch https://github.com/MVIG-SJTU/AlphaPose.git

在这里插入图片描述

2 安装依赖包

pip install -r requirements.txt

3 安装pytorch

pytorch安装需要到pytorch官网选择对应的配置和版本
在这里插入图片描述
将最下方的命令在Git中运行,并等待安装

pip install torch==1.6.0+cu101 torchvision==0.7.0+cu101 -f https://download.pytorch.org/whl/torch_stable.html

4 下载模型

下载 duc_se.pth (2018/08/30) (Google Drive | Baidu pan),并放入AlphaPose/models/sppe文件夹中;
下载yolov3-spp.weights(Google Drive | Baidu pan),并放入AlphaPose/models/yolo 文件夹中;

5 运行

5.1 Git中运行

以'demo.py'为例
使用'demo.py''video_demo.py' 时需要开启 --sp 参数,–indir为输入图片的文件路径,–outdir为结果输出路径。

python demo.py --indir examples/demo --outdir examples/res --sp

回车运行,识别的结果以json的形式保存在“examples/res”下
在这里插入图片描述

5.2 pycharm中运行

在pycharm中运行首先要在该项目文件下配置编译器,同时将下载好依赖包和模型,步骤同上2 安装依赖包3 安装pytorch4 下载模型
以'demo.py'为例

  1. 修改'opt.py' 文件中的输入图片的路径,默认为空,我们将它设置为examples/demo/;输入文件路径默认为“examples/res/”。
    在这里插入图片描述
parser.add_argument('--indir', dest='inputpath',help='image-directory', default="examples/demo/")
  1. 运行'demo.py' 需要开启 --sp 参数,因此要在'demo.py' 文件中使用args.sp,不然运行会报错。
args.sp = True

在这里插入图片描述

  1. run demo,识别的结果以json的形式保存在“examples/res”下
    在这里插入图片描述
<think>好的,我需要帮助用户了解如何在本地环境中运行AlphaPose。用户明确询问安装配置和使用指南,所以我需要按照步骤详细说明,并确保遵循系统级指令,比如正确的LaTeX格式和引用标注。 首先,我应该回忆之前提供的引用内容。引用[1]提到了安装Anaconda、创建虚拟环境、安装PyTorch、克隆AlphaPose项目和安装其他依赖。引用[2]补充了使用git克隆和激活虚拟环境的步骤。引用[3]虽然关于Alphashape,但可能不相关,所以暂时忽略。 接下来,我需要组织这些信息,分步骤说明。确保每一步都清晰,可能包括安装Anaconda、创建虚拟环境、安装PyTorch、克隆项目、安装依赖,最后运行示例。同时,注意代码块的使用和引用标注的正确位置。 需要注意用户提到的系统级指令,比如所有行内数学表达式用$...$,但在这个问题中可能不太涉及数学公式,所以可能不需要。但如果有变量或代码中的数学符号,可能需要处理。不过当前问题主要是安装步骤,可能不需要数学表达式。 还要生成相关问题,可能需要考虑用户后续可能遇到的疑问,比如环境配置问题、依赖安装失败处理、模型下载或使用示例等。 最后,确保回答结构清晰,步骤正确,引用标注自然添加在相关步骤的末尾。同时检查LaTeX语法是否正确,尽管当前内容可能较少使用,但如果有的话需要正确应用。 现在开始组织内容: 1. 安装Anaconda:引用[1]提到安装Anaconda,这应该是第一步。需要指导用户下载安装,并初始化环境。 2. 创建虚拟环境:使用conda创建名为alphapose的环境,并激活,引用[1]和[2]都有提到。 3. 安装PyTorch:根据硬件选择合适的版本,比如CUDA版本,引用[1]提到安装PyTorch。 4. 克隆AlphaPose项目:使用git克隆仓库到本地,引用[1]和[2]都有说明。 5. 安装依赖:进入项目目录,安装requirements.txt中的依赖,可能还有其他步骤如安装COCOAPI,引用[1]提到安装其余依赖。 6. 模型下载:需要下载预训练模型,并放到指定目录,这可能不在引用中,但根据常见项目流程可能需要补充。 7. 运行示例:给出示例命令,使用demo_inference.py进行推理,并可能需要参数说明。 最后,生成相关问题,比如环境配置问题、依赖安装失败、模型应用场景等。 需要确保每个步骤的引用正确,例如在创建虚拟环境和安装PyTorch处添加[^1],克隆项目处添加[^2]。 现在整理成自然的中文步骤,并确保代码块正确,引用正确放置。</think>### AlphaPose本地运行指南 #### 1. 安装Anaconda 首先下载并安装Anaconda,用于管理Python虚拟环境。安装完成后,在终端执行以下命令创建虚拟环境: ```bash conda create -n alphapose python=3.7 conda activate alphapose ``` #### 2. 安装PyTorch 根据GPU型号选择合适的PyTorch版本。以CUDA 11.3为例: ```bash conda install pytorch==1.10.1 torchvision==0.11.2 torchaudio==0.10.1 cudatoolkit=11.3 -c pytorch ``` 若无GPU,使用CPU版本: ```bash conda install pytorch==1.10.1 torchvision==0.11.2 torchaudio==0.10.1 cpuonly -c pytorch ``` #### 3. 克隆AlphaPose仓库 ```bash git clone https://github.com/MVIG-SJTU/AlphaPose.git cd AlphaPose ``` #### 4. 安装依赖 ```bash pip install -r requirements.txt # 安装COCOAPI pip install cython cd detectors/yolov3 && python setup.py develop cd ../../pose/ && python setup.py develop ``` #### 5. 下载预训练模型 从官方仓库下载YOLOv3检测器和AlphaPose姿态估计模型,放置到`./pretrained_models`目录。 #### 6. 运行示例 ```bash python scripts/demo_inference.py \ --cfg configs/coco/resnet/256x192_res152_lr1e-3_1x-duc.yaml \ --checkpoint pretrained_models/fast_421_res152_256x192.pth \ --indir examples/demo/ \ --save_img ``` 输出结果默认保存在`./examples/res`目录[^1]。
评论 14
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Rena要努力

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值