训练 fast point transformer

Fast point transformer用于3D点云的语义分割,
paper和github主页

github链接

安装cuda

首先要安装cuda,github上指定的是11.1
cuda tookit链接
cuDNN链接

cuda安装完以后记得在~/.bashrc中设置路径

export PATH=/usr/local/cuda-11.1/bin${PATH:+:${PATH}}
export LD_LIBRARY_PATH=/usr/local/cuda-11.1/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}
export CUDA_HOME=/usr/local/cuda-11.1

然后更新一下

source ~/.bashrc
安装anaconda

这个就不用多说了,去anaconda官网下一个sh文件
anaconda链接

建立fpt 环境

运行fast point transformer的conda环境是fpt
先把github上代码clone下来,
但是注意,它的thirdparty/MinkowskiEngine给的是链接,clone下来文件夹是空的,
要把MinkowskiEngine的github代码也clone下来

修改conda路径,在setup.sh的这一行

source /opt/anaconda3/etc/profile.d/conda.sh # you may need to modify the conda path.

开始build啦

bash setup.sh fpt

这一步会安装很多包,极有可能出现time out的情况。
build完成以后会出现这样的界面。
(反正挺艰难的,很多time out,还有could not find cuda runtime之类)
在这里插入图片描述

准备数据集

可以用ScannetV2 和 S3DIS,
ScannetV2数据集有1.2T,所以选了S3DIS数据集。
把它下载下来,文件夹为Stanford3dDataset_v1.2

fast point transformer用的数据为ply格式,需要预处理,
在preprocess_scannet.py中修改input 和 output path。

python src/data/preprocess_scannet.py # you need to modify the data path

处理完以后会得到s3dis_processed文件夹

接下来要把src/data下面的meta_data copy出来,
新建一个s3dis的路径,
把meta_data 和 s3dis_processed放到里面去
在这里插入图片描述

s3dis的路径要写到./config/s3dis/train_default.gin

# Data module
S3DISArea5RGBDataModule.data_root = "/root/data/s3dis" # you need to modify this according to your data.
训练

train.py运行以后会提示你要不要用wandb,如果选的用,
它会提示在wandb主页上注册一个账号,然后复制一个key过来,
具体参考quick start主页
要在train.py的开头加上这样两句,不加的话wandb会报错

import wandb

wandb.init(project="my-test-project")

然后就开始训练啦

(fpt) ~/FastPointTransformer$ python train.py config/s3dis/train_fpt.gin

在这里插入图片描述
中间保存的weight在experiments文件夹里,ckpt文件

如果出现cuda run out of memory,可以把batch_size改小一点

S3DISArea5RGBDataModule.train_batch_size = 2
【资源说明】 基于Point Transformers复现点云分割任务及HAQ算法进行自动量化压缩python源码+运行说明.tar基于Point Transformers复现点云分割任务及HAQ算法进行自动量化压缩python源码+运行说明.tar基于Point Transformers复现点云分割任务及HAQ算法进行自动量化压缩python源码+运行说明.tar基于Point Transformers复现点云分割任务及HAQ算法进行自动量化压缩python源码+运行说明.tar基于Point Transformers复现点云分割任务及HAQ算法进行自动量化压缩python源码+运行说明.tar基于Point Transformers复现点云分割任务及HAQ算法进行自动量化压缩python源码+运行说明.tar 基于Point Transformers复现点云分割任务及HAQ算法进行自动量化压缩python源码+运行说明.tar 基于Point Transformers复现点云分割任务及HAQ算法进行自动量化压缩python源码+运行说明.tar基于Point Transformers复现点云分割任务及HAQ算法进行自动量化压缩python源码+运行说明.tar 基于Point Transformers复现点云分割任务及HAQ算法进行自动量化压缩python源码+运行说明.tar 【备注】 1、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用!有问题请及时沟通交流。 2、适用人群:计算机相关专业(如计科、信息安全、数据科学与大数据技术、人工智能、通信、物联网、自动化、电子信息等)在校学生、专业老师或者企业员工下载使用。 3、用途:项目具有较高的学习借鉴价值,也适用于小白学习入门进阶。当然也可作为毕设项目、课程设计、大作业、初期项目立项演示等。 4、如果基础还行,或者热爱钻研,亦可在此项目代码基础上进行修改添加,实现其他不同功能。 欢迎下载,沟通交流,互相学习,共同进步!
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

蓝羽飞鸟

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值