作者针对LineMod算法不能解决多目标重叠物体复杂场景下的识别的问题,以及Patch-LineMod算法识别机制不够合理,特征分类形成模板的过程依据不够充分的问题,升级为CT-LineMod算法,一定程度上解决了复杂场景重叠物体的识别的问题并提升了识别率和准确度。模型的源代码以及文章如下,目前文章已被CC录用,应该不久就可以查到(COGN-D-19-00232R1)。
文献引用:Tielin Zhang, Yang Yang, Yi Zeng, Yuxuan Zhao. Cognitive Template-clustering Improved LineMod for Efficient Multi-object Pose Estimation. Cognitive Computation, 2020.
- LineMod算法:这个是LineMod的算法总结,也可以辅助来看Patch_lineMod的源代码,之前幸亏找到了这个代码说明让我重新理解了LineMod算法。应该反复看明白模板匹配的基本原理。
https://blog.csdn.net/zmdsjtu/article/details/79933822
https://blog.csdn.net/haithink/article/details/88396670 - Patch-LineMod算法:
https://github.com/thomasaimondy/patchlinemod
这个是我们fork的源代码,里面其实已经写了很多步骤了,之后的更细的细节有待补充。注意一定要装openGL Open3D 以及OpenCV要求3.4.1以上以及显卡有底线限制,不然会踩很多坑。之后细节会写每一个所需软件怎么安,这块坑真的多。
https://zhuanlan.zhihu.com/6d-pose 这个是那个博士的成果,我所做的一切也是在这个基础上完成。之前和这位前辈交流过真的受益匪浅,以后还是要多多和他交流进步。 - CT-LineMod算法
https://github.com/brain-cog/Brain inspired Batch
文章链接:https://pan.baidu.com/s/1o-5KBBXB98sJ7bzvgpP7SQ
论文地址: https://rdcu.be/b26sk
题目:Cognitive Template-clustering Improved LineMod for Efficient Multi-object Pose Estimation (仅供学术交流研究)
当然还有以此为基础的研究生论文: --------(之后发了再放链接)
4.之前机器人控制程序的代码;
链接:https://pan.baidu.com/s/1c-c087wvqdmnfyIizfd-AA
提取码:js1q
复制这段内容后打开百度网盘手机App,操作更方便哦
原理可以看论文或者网上搜,也可以等毕业论文写完有中文版的介绍,下面只记录做的步骤一些一些坑。
Müller-Lyer错觉效应是大脑在视觉信息处理过程中存在的一种特殊的视觉功能现象,大脑在处理三维空间中的不同点的认知距离的时候会受到与方向和幅度相关的附加特征的影响。Müller-Lyer错觉效应包括距离错觉效应、方向错觉效应和角度错觉效应三种基本类型。在人类视觉系统中所存在的这类错觉效应将有助于在6D姿态估计过程中进行特征检测和目标识别,特别是在三维空间中物体重度遮挡场景下显示出积极的意义。
采用7D特征向量取代传统的只包含3D位置的坐标向量,并且在进一步的特征点空间位置判断过程中,不同位置处的特征点分类会受到Müller-Lyer错觉效应中与特征方向及幅度相关的额外4D向量特征信息的影响。
在特征信息降维的过程中,采用梯度下降法将包含7D向量的特征信息降维为3D向量,之后采用K-means特征点均值聚类实现模板的总匹配,并且自动消除多余的聚类,使模板匹配过程既具备了特征信息的整体性又保持了特征点的局部特性。
步骤
1.①点云原始数据特征点生成;②7D特征向量定义与设置;③模