机器人视觉项目:视觉检测识别+机器人跟随(16)

本文介绍了一个机器人视觉项目,使用YOLOv3进行目标检测,结合KCF进行跟踪。当跟踪丢失时,通过特征匹配重新检测目标。提取了SIFT和SURF特征,利用欧式距离进行匹配,以提高跟踪稳定性。项目中遇到的问题包括跟踪算法的选择、目标框的稳定、长时间跟踪的鲁棒性和多进程中的特征提取等。
摘要由CSDN通过智能技术生成

跟踪丢失后再检测时加上目标特征匹配,是将第一帧检测到的目标框中的特征提取出来,具体可以采用尺度不变特征SIFT,SURF特征提取,
提取出来的特征,能否以向量的形式保存在变量中,再检测时搜索图像帧中的待确定目标区域(可能有数个这样的roi),
可以通过计算欧式距离的方式与第一帧图像中的特征进行匹配,快速排除欧氏距离相差较大的检测对象(非跟踪的行人对象),
当匹配度达到一定值后,即检测到第一帧跟踪的行人。

先搞定怎么提取特征,有没有比较好的demo,提取到特征后怎么匹配,用欧式距离?
提取到的特征是什么形式?需要送入神经网络中输出来一维向量吗?全连接层输出到softmax层,输出多分类的概率
ORB算法BRIFT特征提取方法,对一个像素点周围的16个像素点信息进行匹配。

这里在什么地方加上匹配需要先梳理一下检测跟踪的流程,
***************************************************************
1.首先用args初始化yolov3模型,定义tracker,然后进入到while True中
队列in_q出队赋给frame,将主进程中的视频数据传给frame,
判断是否要逐帧检测:args--notracking=1是设置为逐帧检测,--notracking=0则不用逐帧检测,该if不执行,直接判断roi的长度,
这样即丢失后再检测。考虑到我们的应用场景和需求,一般设置--notracking=0>
如果需要逐帧检测,将调用detect方法将检测结果传到

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值