AlphaPose训练自己的数据集

下载源码:https://github.com/MVIG-SJTU/AlphaPose

一、环境配置与测试

测试
python scripts/demo_inference.py --cfg configs/coco/resnet/256x192_res50_lr1e-3_1x.yaml --checkpoint pretrained_models/fast_res50_256x192.pth --indir examples/demo/
报错:

ImportError: cannot import 'roi_align_cuda' from partially initialized module 'alphapose.utils.roi_align' (most likely due to a circular import)

观察导入的这个是cpp,但是并没有对应的库。
参考https://blog.csdn.net/weixin_59250115/article/details/126313125
运行python setup.py build develop
报错:

/home/zhanglu/anaconda3/envs/yolov5/compiler_compat/ld: cannot find -lOSMesa: No such file or directory
/home/zhanglu/anaconda3/envs/yolov5/compiler_compat/ld: cannot find -lGL: No such file or directory
/home/zhanglu/anaconda3/envs/yolov5/compiler_compat/ld: cannot find -lGLU: No such file or directory
collect2: error: ld returned 1 exit status
error: Setup script exited with error: command 'gcc' failed with exit status 1

参考:http://c.biancheng.net/view/3901.html
知道相关库的位置,并软链接过去。

 find /usr -name libGL*
 sudo ln -s /usr/lib/x86_64-linux-gnu/libGL.so.1 /usr/lib/libGL.so
 sudo ln -s /usr/lib/x86_64-linux-gnu/libGLU.so.1 /usr/lib/libGLU.so
find /usr -name libOSMesa*
sudo find / -name libOSMesa*

都找不到相关库。

$ sudo apt install libosmesa6-dev libgl1-mesa-glx libglfw3
$ find /usr -name libOSMesa*
/usr/lib/x86_64-linux-gnu/libOSMesa.so.8
/usr/lib/x86_64-linux-gnu/libOSMesa.so.6
/usr/lib/x86_64-linux-gnu/libOSMesa.so.8.0.0
/usr/lib/x86_64-linux-gnu/libOSMesa.so
$ sudo ln -s /usr/lib/x86_64-linux-gnu/libOSMesa.so /usr/lib/libOSMesa.so

再运行python setup.py build develop,继续报错nms_kernel.cu中找不到#include <ATen/ATen.h>。
注释掉setup.py中的

# make_cuda_ext(
#     name='nms_cuda',
#     module='detector.nms',
#     sources=['src/nms_cuda.cpp', 'src/nms_kernel.cu']),

最后成功了。

运行:python scripts/demo_inference.py --cfg configs/coco/resnet/256x192_res50_lr1e-3_1x.yaml --checkpoint pretrained_models/fast_res50_256x192.pth --indir examples/demo/
报错:

from . import nms_cpu, nms_cuda
ImportError: cannot import name 'nms_cuda' from partially initialized module 'detector.nms' (most likely due to a circular import) ()

因为上边没有编译这个库。就不用cuda了,在cpu上计算nms。在nms_wrapper.py中注释掉nms_cuda即可成功运行。

模型介绍

训练使用的是seresnet50
seresnet50介绍参考:https://blog.csdn.net/weixin_43863869/article/details/121377413
se模块
在这里插入图片描述
在这里插入图片描述分析:上图将SENet添加至Residual模块中,即将SENet模块添加至ResNet中Conv Block和Identity Block的最后一个小Block之后。

def forward(self, x):
    out = self.preact(x)	##seresnet50
    out = self.suffle1(out)  ##上采样nn.PixelShuffle
    out = self.duc1(out)  ##conv,bn,relu,nn.PixelShuffle
    out = self.duc2(out)  ##conv,bn,relu,nn.PixelShuffle

    out = self.conv_out(out)  ##conv
    return out
  • 1
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
alphapose是一个用于人体姿态估计的开源项目,它可以用于训练自己的数据集。根据引用\[1\]中的代码,训练使用的是seresnet50模型。你可以参考\[1\]中提供的链接了解更多关于seresnet50的信息。在训练之前,你需要准备好自己的数据集,并进行标注。根据引用\[3\]中的描述,你需要标注人体关键点和边界框。如果时间允许,最好也标注分割框的区域。然后,你可以使用labelme等工具进行标注。在训练之前,你还需要准备好配置文件和预训练模型。根据引用\[2\]中的代码,你可以使用命令行工具来进行训练。具体的命令可以根据你的配置文件和数据集路径进行调整。希望这些信息对你有帮助! #### 引用[.reference_title] - *1* *2* [AlphaPose训练自己的数据集](https://blog.csdn.net/weixin_41012399/article/details/127676854)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [【存】Alphapose训练自己的数据集](https://blog.csdn.net/qq_41777427/article/details/125320640)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值