【车道线】TwinLiteNet 复现过程全纪录

码字不易,喜欢的请点赞收藏!!!!!

论文全文翻译:【freespace】TwinLiteNet: An Efficient and Lightweight Model for Driveable Area and Lane Segmentation_莫克_Cheney的博客-CSDN博客

目录

码字不易,喜欢的请点赞收藏!!!!!

1、下载代码

2、解压缩

3、建立conda环境

 4、验证环境

5、复制环境

6、安装依赖

 7、测试

8、训练


1、下载代码

代码地址:https://github.com/chequanghuy/TwinLiteNet

2、解压缩

3、建立conda环境

我个人先建立起一个基础环境,然后复制为twinlitenet环境,大家可以直接建立环境

conda create -n baseenv python=3.8

conda activate baseenv

安装pytorch, torchvision, torchaudio等废了好大劲,传统搜索出的安装命令,不是太慢,就是安装错了,安装的cpu版本的torch,只有这一句,能够省时省力,正确安装。

 pip3 install torch==1.10.0 torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu113 -i https://pypi.tuna.tsinghua.edu.cn/simple some-package

 4、验证环境

环境安装好了,我们来验证下

import torch # 如果pytorch安装成功即可导入
print(torch.cuda.is_available()) # 查看CUDA是否可用
print(torch.cuda.device_count()) # 查看可用的CUDA数量
print(torch.version.cuda) # 查看CUDA的版本号

5、复制环境

conda create -n twinlitenet --clone baseenv

6、安装依赖

pip install -r requirements.txt -i https://pypi.douban.com/simple/

感觉对应的包没有必要和作者完全一致,能够安装上即可,自己和自己安装的版本不冲突即可

因为我们之前安装完成了torch,torchvision,所以要把它们两个删掉,另外torchtext对torch的版本有要求,要一并考虑

 7、测试

先建立结果文件夹

mkdir results

使用如下语句运行测试程序,调用的是'pretrained/best.pth'这个模型,运行的原图在images里,结果图存在results里

python test_image.py

结果示意图如下,蓝色的是可行驶区域,绿色的是车道线:

8、训练

下载数据集,后面两个标签需要科学上网

- 下载images (https://bdd-data.berkeley.edu/)

- 下载可通行区域的标签[segments](https://drive.google.com/file/d/1xy_DhUZRHR8yrZG3OwTQAHhYTnXn7URv/view?usp=sharing)

 不用科学上网的备选https://download.csdn.net/download/herocheney/88189927https://download.csdn.net/download/herocheney/88189927

- 下载车道线的标签 [lane](https://drive.google.com/file/d/1lDNTPIQj_YLNZVkksKM25CvCHuquJ8AP/view?usp=sharing).

  不用科学上网的备选https://download.csdn.net/download/herocheney/88189953https://download.csdn.net/download/herocheney/88189953

 按照如下目录链接存放:

放好数据集后,更改DataSet.py里的数据集路径,改为你自己的路径:

 conda activate twinlitenet

python train.py即可开始训练:

 

  • 2
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
要开始复现mmskeleton的过程,请按照以下步骤进行操作: 1. 确保你的系统已经安装了Python和pip。如果没有,请先安装它们。 2. 克隆mmskeleton的代码仓库。你可以在GitHub上找到mmskeleton的代码仓库,并使用以下命令克隆代码: ``` git clone https://github.com/open-mmlab/mmskeleton.git ``` 3. 进入克隆的代码仓库目录。 ``` cd mmskeleton ``` 4. 创建并激活一个虚拟环境(可选,但强烈推荐)。 5. 安装依赖项。可以使用以下命令安装必要的依赖项: ``` pip install -r requirements.txt ``` 6. 安装mmskeleton。可以使用以下命令安装mmskeleton: ``` python setup.py install ``` 7. 下载预训练模型。mmskeleton需要一些预训练模型来进行姿态估计等任务。你可以在mmskeleton的文档或代码仓库中找到相应的模型下载链接。下载并解压这些模型,并将它们放置在适当的目录中。 8. 准备数据。根据你的任务和数据集,准备好相应的数据。确保数据的路径与配置文件中指定的路径相匹配。 9. 配置文件设置。在`./configs/pose_estimation/`目录下,你可以找到一些已经配置好的示例配置文件。根据你的需求修改其中的一份配置文件,确保路径和参数设置正确。 10. 运行示例。使用以下命令来运行mmskeleton的示例: ``` python mmskl.py --config ./configs/pose_estimation/pose_demo.yaml ``` 这将使用指定的配置文件运行mmskeleton的姿态估计示例。根据你的配置文件和数据集,你可能需要进行相应的修改。 这些是复现mmskeleton的基本步骤。根据你的具体需求和任务,可能还需要进行其他设置和修改。请参考mmskeleton的文档和代码仓库以获取更详细的信息和指导。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值