SLAM学习过程术语杂烩

名词解释备注


- 视觉里程计 Visual Odometry 通过分析有关联的相机图像从而确定机器人的位置和朝向(orientation)的过程(wiki)。
- 光束平方差 Bundle Adjustment
- 非线性最小二乘
- 随机梯度下降
- ICP Iterative Closest Point 迭代最近点
- SIFT Scale-invariant Feature Transform(尺度不变的特征转换)
SURF Speedup Robust Features(SIFT的改进)
- RPY角:roll(滚动),pitch(俯仰),yaw(偏转)。 α (z), β (y), γ (x).
- g2o General Graph Optimization 通用图优化算法
- 景深:depth of field.DOF焦距对准一点,前后仍清晰的范围。
- DBN Deep Belief Networks(无监督学习)深度置信网络
CNN Convolutional neural networks(有监督学习)卷积神经网络
- EKF Extended Kalman Filter 扩展的卡尔曼滤波
- RANSAC Random Sampling Consensus 随机取样一致(一种地标提取算法),从现有的匹配中随机去一部分,估计其运动。
- 相机内参矩阵A 待写
- 相机外参矩阵[R|t]待写
- 单应性 homography 平面的单应性:从一个平面到另一个平面的投影映射。如:一个二维平面的带你映射到相机成像仪上的映射。
- 本质矩阵和基本矩阵 fundamental matrix
- 黑森矩阵
- 图像掩模 image mask:用选定的图形,图像或物体,对待处理的图像(全部或局部)进行遮挡,来控制图像处理的区域或处理过程。用于覆盖的特定图像或物体成为掩模/模板。数字图像处理中,掩模为二维矩阵数组或多值图像。可用于结构特征提取(用相似性变换或图像匹配方法检测和图像中与掩模相似的结构特征)。
- 图像金字塔 image pyramid: 以多分辨率来表示图像的一种有效且概念简单的结构,一系列以金字塔形状排列的,分辨率逐步降低的图像集合。
- FLANN Fast Library for Approximate Nearest Neighbors 最近邻近似匹配
vs 暴力匹配 BruteForce匹配法(opencv中内置了两种匹配方法,SURF和SIFT特征可用FLANN,ORB只能用BF,描述子数据类型分别为float和uchar,所以不同)。
- LM算法 Levenberg-Marquardt Algorithm 列温伯格-马夸尔特算法,使用最为广泛的非线性最小二乘算法,利用梯度求最值的非线性优化方法,对于过参数化问题不敏感,可有效处理冗余参数问题。使代价函数cost function陷入局部极小值的机会大大减小。
- PnP
- 闭环检测 根据图像外观,看它是否和以前关键帧相似,本质是模式识别问题(非监督聚类,分类),重用BOW词袋方法。
- 6DOF 6自由度(3D SLAM建模方法),分别为 x,y,z和三个角度。
- Rodrigues变换 罗德里格斯变换,将旋转向量->矩阵
- 汉明距离 Hamming距离:将一个字符串变换成另一个字符串所需要替换的字符个数,如1101变为0010,汉明距离为4。
- 逆向文件频率 tf-idf(待写)
- FPGA Field-Programmable Gate Array现场可编程阵列
- SE(3) 特殊欧式群 Special Eudidean Group SE(3)是一个典型的李群,lie群。机器人动力学仿真问题是李群SE(3)上的数值积分问题。
- 角点:极值点,两条边的交点。
FAST 角点检测中的角点:若某像素点圆形邻域圆周上有3/4的点和该像素不同(编程时不超过某阈值th),则认为该点是候选焦点。opencv中,选用半径为3的圆周上,上下左右四个点,若超过3个点与该像素点不同,选择该点作为角点。圆->Bresenham圆,不同->gray intensity。
- 高斯平滑(高斯滤波):用一个模板(或卷积、掩模)扫描图像中的每一个像素,用模板确定的邻域内像素的加权平均灰度值去替代模板中心像素点的值,从而降低噪声(因为典型的随机噪声由灰度级的急剧变化造成)。通常采用离散化窗口滑窗卷积或傅里叶变换的方式实现。
- 高斯-牛顿法 Gauss-Newton:用泰勒级数展开式近似地代替非线性回归模型,然后通过多次迭代,从而多次修正回归系数,使回归系数不断逼近非线性回归模型的最佳回归系数,最后使模型的残差平方和达到最小。残差:数据点SADES统计的方法建立因变量和自变量之间的回归方程式。
- dogleg “狗腿”算法
- 梯度下降法 gradient descent 是一个最优化算法,通常也称为最速下降法。常用于机器学习和人工智能当中用来递归性地逼近最小偏差模型。
- KL-divergence Kullback-Leibler差异(Kullback-Leibler Divergence)的简称,也叫做相对熵(Relative Entropy)。它衡量的是相同事件空间里的两个概率分布的差异情况。其物理意义是:在相同事件空间里,概率分布P(x)的事件空间,若用概率分布Q(x)编码时,平均每个基本事件(符号)编码长度增加了多少比特。
- Chi square distance 卡方距离
- Bhattacharyya coefficient 巴氏系数是对两个统计样本的重叠量的近似计算,可用来对两组样本的相关性进行测量。

  • 2
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值