复现PointTransformerV3记录(实时更新)

安装

以下是必要安装的东西链接:

PTv3
Flash-attention

首先,我是在autodl上跑的,最初所选环境如下
在这里插入图片描述
然后就开始愉快的按照原文指引步骤开始装包,直到这一步踩进第一个坑:

python setup.py install`

我的报错如下:
在这里插入图片描述
最开始以为是环境变量的问题,我寻思autodl是自带cuda和cudnn的,不应该啊,我也自行添加了但没用,后面也试了很多方法都没用,后面再autodl里把环境换了就好了,如下所示:
在这里插入图片描述

好了,接下来两个包都没问题,到了下Flash-attention这里开始踩第二个坑!!
首先看清楚他的要求,务必严格执行!
在这里插入图片描述
这里要注意的是如果要照着他这个下的话,一定要下ninja,且需要以下两个命令进行检查(第二命令输出是0才正常)!

ninja --version
echo $?

然后我在准备工作都齐全,以为不会出错的时候,它还是来了,这里我没有截出错的图,大概是它一直build,给我build了几个小时都没反应,后来查了才知道是代理问题,因为我不知道怎么在autodl上开梯子,所以直接在https://github.com/Dao-AILab/flash-attention/releases上找到适合自己环境的whl文件进行下载,再上传autodl。

数据集准备

跑PTv3的话,要先注意作者他们有没有配对应的配置文件!!!

我是配完了SemanticKITTI,才发现他没给v3的配置文件,就很难受,不知道后续会给不

这里有作者pointcept代码库里的说明:https://github.com/Pointcept/Pointcept#data-preparation

训练

按照他给的如下进行运行:

export CUDA_VISIBLE_DEVICES=0,1
# Script (Recommended)
# 这里配置文件是用的v2的,只是测试是否可以跑
sh scripts/train.sh -p /root/miniconda3/envs/pointcept/bin/python -g 2 -d semantic_kitti -c semseg-pt-v2m2-0-base -n PTv3_SemanticKITTI_test1

我这里只有两张gpu,所以CUDA_VISIBLE_DEVICES设置为0,1,建议按照他跑的样式给4或8张,我用的两张,batch_size设的12。

在这里插入图片描述

未完待续……

  • 5
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值