ubuntu+anaconda+vscode+FairMot 训练教程 慢慢更新

安装环境的方式测试的参考:

复现FairMot踩坑记录_GG的博客-CSDN博客問題1:ERROR: Command errored out with exit status 1: command: /home/se8502/anaconda3/envs/fairmot/bin/python -u -c 'import io, os, sys, setuptools, tokenize; sys.argv[0] = '"'"'/tmp/pip-install-loqfqgxu/lap_27d2b6fda8f14025af34865b05f8ff1c/setup.py'"'...https://blog.csdn.net/qwazp3526cn/article/details/121527060

开始 -

        作者:

https://github.com/ifzhang/FairMOThttps://github.com/ifzhang/FairMOT

首先下载数据集:

        CrowdHuman_train01.zip、CrowdHuman_train02.zip、CrowdHuman_train03.zip、              

        CrowdHuman_val.zip、CrowdHuman_test.zip

        annotation_val.odgt、annotation_train.odgt、crowdhuman_dla34.pth

在FairMOT-master根目录下创建\dataset\MOT\CrowdHuman

创建的格式按照作者的方式:

crowdhuman
   |——————images
   |        └——————train
   |        └——————val
   └——————labels_with_ids
   |         └——————train(empty)
   |         └——————val(empty)
   └------annotation_train.odgt
   └------annotation_val.odgt

具体如下:

打开\FairMOT-master\src\lib\cfg\data.json

======================2021.11.30.02.18=================

 成功训练

先睡觉

======================2021.12.01.11.27=================

更新:

今天先尝试一下2D MOT15训练

1.作者说这么准备数据集:

MOT15
   |——————images
   |        └——————train
   |        └——————test
   └——————labels_with_ids
            └——————train(empty)

(1)将2DMOT2015解压,放入./FairMOT-master/dataset/MOT/MOT15(这里可以是你自己新建的数据集)目录下,解析完成后。MOT15内有train和test两个文件夹,里面存着train和test数据。

(2)在./FairMOT-master/dataset/MOT/MOT15目录下新建一个labels_with_ids文件夹,里面建一个空的train文件夹。
然后下载seqinfo 文件,将 seqinfo 文件夹中的 *.ini 复制到 MOT15 对应的文件夹中。

详细一点是:

 ctrl+L 获取文件路径

/home/se8502/FairMOT-master/dataset/MOT/MOT15/images

/home/se8502/FairMOT-master/dataset/MOT/MOT15/labels_with_ids/train

2. 打开 src/python gen_labels_15.py 修改文件中数据集的路径 

分别是:seq_root 和  label_root

打开 Terminal  输入

python gen_labels_15.py

 

文件夹中就会生成训练集的label

3.训练模型:

按照这样的准备

4. 修改训练数据集地址:

打开文件./src/lib/opts.py

修改为自己的数据集地址:

# mot
    self.parser.add_argument('--data_cfg', type=str,
                             default='../src/lib/cfg/mot15.json',
                             help='load data from cfg')
    self.parser.add_argument('--data_dir', type=str, default='/home/se8502/FairMOT-master/dataset/MOT/MOT15')

打开src/lib/cfg/mot15.json

 修改为自己的数据集地址:

{
    "root":"/home/se8502/FairMOT-master/dataset/MOT",
    "train":
    {
        "mot15":"./data/mot15.train"
    },
    "test_emb":
    {
        "mot15":"./data/mot15.train"
    },
    "test":
    {
        "mot15":"./data/mot15.train"
    }
}

5.训练:

根据自己实际,修改mot15_ft_mix_dla34.sh,训练按照下面的代码:

sh mot15_ft_mix_dla34.sh

========================2021.12.04.03.50================

可视化:

安装tensorboard

conda install tensorboard

进入文件

/home/se8502/FairMOT-master/exp/mot/

看到训练的文件

进入

接下来输入:

tensorboard --logdir ./ --port=8080

打开链接:

 可以看到可视化的内容

评估网络:

CUDA_VISIBLE_DEVICES=0 python track.py mot --val_mot15 True --load_model ../models/fairmot_dla34MOT17.pth --conf_thres 0.6 --save_all 

 

  • 3
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 11
    评论
对于FairMOT的环境搭建,下面是基本的步骤: 1. 首先,你需要一个具备GPU支持的计算机,因为FairMOT是基于深度学习模型的目标跟踪算法,需要进行大量的计算。 2. 安装Python和依赖库。FairMOT使用Python作为开发语言,你可以安装最新版本的Python。另外,你需要安装一些常用的Python库,包括NumPy、OpenCV、PyTorch等。 3. 克隆FairMOT代码库。你可以在GitHub上找到FairMOT的代码,并将其克隆到本地。 ``` git clone https://github.com/ifzhang/FairMOT.git ``` 4. 下载预训练模型。FairMOT的作者提供了一些预训练模型,你可以从GitHub上下载这些模型并保存到特定的文件夹中。 5. 准备数据集。FairMOT需要一个目标跟踪的数据集来进行训练和测试。你可以使用现有的数据集,如MOT17、MOT20等,或者自己制作数据集。 6. 配置参数文件。FairMOT使用一个配置文件来设置训练和测试的参数。你需要根据自己的需求修改配置文件中的参数。 7. 训练模型。使用准备好的数据集和配置文件,你可以开始训练FairMOT模型。根据配置文件中的参数设置,执行相应的训练命令。 8. 测试模型。训练完成后,你可以使用测试数据集对FairMOT模型进行评估。同样,根据配置文件中的参数设置,执行相应的测试命令。 这是一个简要的搭建FairMOT环境的步骤,具体的操作可能会因为不同的系统和需求而有所差异。你可以参考FairMOT的官方文档或者在相关的开发社区寻求帮助,以便更好地完成环境搭建。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 11
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

高高呀~

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值