跟踪丢失后再检测时加上目标特征匹配,是将第一帧检测到的目标框中的特征提取出来,具体可以采用尺度不变特征SIFT,SURF特征提取,
提取出来的特征,能否以向量的形式保存在变量中,再检测时搜索图像帧中的待确定目标区域(可能有数个这样的roi),
可以通过计算欧式距离的方式与第一帧图像中的特征进行匹配,快速排除欧氏距离相差较大的检测对象(非跟踪的行人对象),
当匹配度达到一定值后,即检测到第一帧跟踪的行人。
先搞定怎么提取特征,有没有比较好的demo,提取到特征后怎么匹配,用欧式距离?
提取到的特征是什么形式?需要送入神经网络中输出来一维向量吗?全连接层输出到softmax层,输出多分类的概率
ORB算法BRIFT特征提取方法,对一个像素点周围的16个像素点信息进行匹配。
这里在什么地方加上匹配需要先梳理一下检测跟踪的流程,
***************************************************************
1.首先用args初始化yolov3模型,定义tracker,然后进入到while True中
队列in_q出队赋给frame,将主进程中的视频数据传给frame,
判断是否要逐帧检测:args--notracking=1是设置为逐帧检测,--notracking=0则不用逐帧检测,该if不执行,直接判断roi的长度,
这样即丢失后再检测。考虑到我们的应用场景和需求,一般设置--notracking=0>
如果需要逐帧检测,将调用detect方法将检测结果传到