![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
算法
文章平均质量分 85
炽霜
SLAM算法工程师
展开
-
RANSAC算法应用
问题描述在对数据进行建模时,我们往往会遇到数据中存在异常数据(outlier,一般称为外点)的情况,如图,用一条直线拟合图中的点,其中左下和右上的点明显是外点。此时使用最小二乘法,则会由于外点的存在偏离正确模型较多,如下图,因此我们需要找出并剔除这些外点,从而得到一个较好的模型。RANSAC算法原理RANSAC(Random Sample Consensus)基本思想是通过多次随机抽取部分数据进行模原创 2017-08-30 21:59:59 · 1271 阅读 · 0 评论 -
从NMS谈起——自适应非极大值抑制算法(ANMS)
自适应非极大值抑制算法自适应非极大值抑制算法是论文Multi-Image Matching using Multi-Scale Oriented Patches提出的一种算法。基本思想是评估所有interesting point的极大区域,并进行排序。具体来说,就是先选取很多的interesting point,组成集合S。对S中的每个点xix_i,寻找它的响应能作为区域最大值的区域半径rir_i,原创 2017-10-13 14:02:25 · 6010 阅读 · 0 评论 -
迭代求解最优化问题——梯度下降、牛顿法
如前面所提到的,对于一些问题我们可能需要使用迭代的方法进行求解。迭代求解一般包括三个步骤:确定初值x0x_0确定每次迭代的增量dd进行一次迭代xk+1=xk+dx_{k+1} = x_k + d判断是否收敛或达到最大迭代次数,若没有,返回第二步。常用的迭代方法有梯度下降法,牛顿法,和它们的变种高斯牛顿法、L-M算法。梯度下降法梯度下降法直观的表述如图。图中心代表最低点。梯度下降法的主要思想原创 2017-10-17 03:45:47 · 7854 阅读 · 0 评论 -
迭代求解最优化问题——最小二乘问题、高斯牛顿法
##最小二乘问题最小二乘问题是应用最广泛的优化问题,它的一般形式如下:$$\min_x ||r(x)||^2$$我们把r(x)称为残差函数。一个最简单的最小二乘问题就是线性回归问题,对于这个问题的求解可以上一节所说的梯度下降法。###线性最小二乘问题线性最小二乘问题是最简单的最小二乘问题,它的一般形式如下:$$\min_x ||Ax-b||^2$$线性最小二乘问题的求解很容易,令$$h(x) = ||原创 2017-10-17 14:27:20 · 17579 阅读 · 0 评论 -
最大似然估计和最大后验概率估计
最大似然估计似然函数似然函数是一种关于统计模型中参数的函数,表示模型参数中的似然性。给定观测量x时,关于参数θ的似然函数L(θ)(在数值上)等于给定参数θ后变量x的概率:L(θ)=L(θ|x)=pθ=p(x|θ)=p(x;θ)L(\theta) = L(\theta|x)=p_{\theta} = p(x|\theta)=p(x;\theta)最大似然估计给定一组观原创 2017-12-16 15:51:37 · 2464 阅读 · 0 评论 -
迭代求解最优化问题——Levenberg-Marquardt算法
高斯牛顿法使用的条件上一篇中提到了线性最小二乘问题minx||Ax−b||\min \limits_x ||Ax-b||的的标准方程为ATAx−ATb=0A^TAx-A^Tb=0。其中x为n维向量,b为m维向量,A为m×nm\times n的矩阵。从标准方程我们可以求出x的解析解,然而这其实隐含了一个条件,就是rank(A)=n。当A秩亏的时候,rank(ATA)≤rank(A)<nrank(A^T原创 2017-10-20 21:24:57 · 6372 阅读 · 0 评论