来吹一波siamMask(神经网络Mask追踪,Ubuntu+Conda+PyTorch)

最近写了个手持物体追踪的专利,深刻感受到mask轮廓在追踪中起到的作用,无巧不巧,CVPR2019出了一篇融合分割功能的追踪框架的文章,并且开源了代码,所以跑了一下代码,觉得又一标注利器到手,2333

先来看看效果(可以对比之前GoTurn的文章,完全吊打)

dlib追踪测试(这个倒还简单)实测GTX1060 33fps...

行人追踪效果(虽然丢了不少,但请去看看GoTurn的效果)

 

===========原理==============

融合了视频分割的框架进行追踪,详细的可以看论文

只需要在第一帧给出物体的bounding box,之后会对物体进行追踪并持续分割物体

============环境配置===========

下面就是你们要的环境配置

windows流程一样,之前配置过程中忘记make.sh错以为需要调用dll,感谢万能的评论)

然后是Ubuntu的配置流程:

首先亮Git,英文阅读能力强的朋友可以直接按照官方的教程进行配置,不排除代码之后有所改动

1.下载项目

git clone https://github.com/foolwood/SiamMask.git && cd SiamMask
export SiamMask=$PWD

2.下载训练好的模型

cd $SiamMask/experiments/siammask
wget -q http://www.robots.ox.ac.uk/~qwang/SiamMask_VOT.pth
wget -q http://www.robots.ox.ac.uk/~qwang/SiamMask_DAVIS.pth

3.配置环境(conda+pyTorch)

都写在了requirements里了,良心不良心

conda create -n siammask python=3.6
source activate siammask
pip install -r requirements.txt
bash make.sh

如果make.sh出问题的话,直接复制出来运行一下就好

 

4.测试

cd $SiamMask/experiments/siammask
export PYTHONPATH=$PWD:$PYTHONPATH
python ../../tools/demo.py --resume SiamMask_DAVIS.pth --config config_davis.json

5.效果

拓展阅读

1.【新智元文章】https://baijiahao.baidu.com/s?id=1627432661257652978&wfr=spider&for=pc

2.【原作者对此的思考】https://zhuanlan.zhihu.com/p/58154634

3.【博客】https://blog.csdn.net/shenziheng1/article/details/88586880

有问题欢迎留言交流,233

 

 

评论 42
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

朱铭德

五毛也是爱٩(●´৺`●)૭

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值