![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
AlgorithmDaily
文章平均质量分 87
坚强的羊脂球
书山有路
展开
-
《点和直线投影及位置关系》
文章目录直线方程点在直线投影直线求交点向量点积点和直线关系直线方程向量叉积再简单的问题,也需要认真推导!直线方程点斜式:y−y0=k(x−x0)y - y_0 = k(x-x_0)y−y0=k(x−x0)斜距式:y=kx+by=kx+by=kx+b两点式:x−x1x2−x1=y−y1y2−y1\frac{x-x_1}{x_2-x_1} = \frac{y-y_1}{y_2-y_1}x2−x1x−x1=y2−y1y−y1 (不包括垂直坐标轴直线)截距式:xa+yb=1\fra原创 2021-11-07 16:59:26 · 1011 阅读 · 0 评论 -
《卡尔曼滤波器用于图像上运动目标跟踪预测》
文章目录简介匀速运动模型引入加速度引入单应变换实验结果分析参考卡尔曼滤波器用于图像上运动目标跟踪预测简介Kalman滤波器是通过前一状态预测当前状态,并使用当前观测状态进行校正直接观测量为left, top, right, bottom, 分别代表目标的左上和右下坐标一般地认为运动速度是匀速但是监控场景中相机俯角太大,存在景深,导致运动是非匀速的来向,从远到近,加速运动去向,从近到远,减速运动针对非匀速情况下目标状态量引入加速度目标状态转到世界坐标系双目原创 2021-09-23 22:47:45 · 1884 阅读 · 0 评论 -
《卡尔曼滤波理解及python实现》
文章目录Kalman滤波推导五个公式推导过程实现cv2.KalmanFilter自己实现轨迹预测参考链接卡尔曼滤波的简单理解及应用Kalman滤波状态估计器模型精确和随机干扰信号统计特性已知的线性系统本质:贝叶斯模型 + 最小均方误差估计步骤根据上一次的最优状态估计和最优估计误差去计算这次的先验状态估计和先验误差估计根据本次先验误差估计和测量噪声,得到卡尔曼增益根据当前测量值和先验状态估计值,通过卡尔曼增益加权,得到本次的最优估计推导五个公式预测x^k原创 2021-08-29 23:47:47 · 5479 阅读 · 1 评论 -
《非线性优化算法——LM》
文章目录概述对比推导应用曲线拟合参考文献概述寻找参数向量,使得函数值最小的非线性优化算法Levenberg-Marquardt, LM算法,列文伯格-马夸尔特法LM算法成为**Gauss-Newton算法与最速下降法(梯度下降法,GD)**的结合,μ很小时,类似于高斯牛顿法;μ很大时,类似于LM法阻尼因子μ对于过参数化问题不敏感,能有效处理冗余参数问题,使代价函数陷入局部极小值的机会大大减小对比几种优化方法对比(转载)方法介绍迭代公式最速下降法负梯度方向,原创 2021-08-19 20:36:05 · 7972 阅读 · 0 评论 -
《非线性最小二乘优化——高斯牛顿法》
文章目录概述推论应用非线性优化算法——高斯牛顿法概述Gauss-Newton非线性最小二乘优化针对牛顿法中的Hessian矩阵计算复杂,对其近似简化推论目标函数优化,转化为最小化误差f(x)平方和minF(x0+△x)=∣∣f(x0+△x∣∣2minF(x_0+\triangle x) = ||f(x_0+\triangle x||^2minF(x0+△x)=∣∣f(x0+△x∣∣2一阶泰勒展开minF(x0+△x)=∣∣f(x0)+JT△x∣∣2minF(x_0原创 2021-08-17 22:31:12 · 642 阅读 · 0 评论 -
《视场角相关计算》
文章目录简介视场角计算SDK视距和视场宽高CCD靶面尺寸像素焦距和图像长宽如何计算相机视场角简介视野,视场,视角(field of view, FOV)在光学仪器中,以光学仪器的镜头为顶点,以被测目标的物像可通过镜头的最大范围的两条边缘构成的夹角,称为视场角视场角分为水平视场角和垂直视场角视场角计算SDK部分海康相机SDK可以获取视场角NET_DVR_GetSTDConfig(lUserID, NET_DVR_GET_GISINFO, &struCfg);原创 2021-08-16 22:16:43 · 6187 阅读 · 3 评论 -
《非线性优化——牛顿法》
文章目录概述推导一维函数泰勒展开二维函数泰勒展开应用一元非线性方程多元方程组目标函数极值Newton,牛顿法非线性优化概述用于非线性目标函数优化,寻找非线性函数的极小值,及取最小值的参数用于方程求解核心思想:泰勒一阶和二阶展开搜索方向−1H(k)-\frac{1}{H(k)}−H(k)1推导一维函数泰勒展开目标函数一阶泰勒展开F(x0+△x)≈F(x0)+F′(x0)△x+12F′′(x0)△x2F(x_0+\triangle x)≈F(x_0)+F'(x_0)\trian原创 2021-08-15 22:34:56 · 670 阅读 · 0 评论 -
《梯度下降法》
文章目录概述推导应用一元线性回归二元非线性回归求极值点梯度下降法(Gradient Descent, GD),最速下降法概述目的:对原始模型的损失函数进行优化,以便寻找到最优的参数,使得损失函数的值最小梯度指向误差值增加最快的方向,导数为0(梯度为0向量)的点,是一个寻找最优点的过程学习率:学习率或步长,控制迭代的快慢,太小会导致收敛很慢,太大导致会无法收敛梯度下降法容易陷入局部最优解一元线性回归只有全局最优解,没有局部最优解推导 找到合适参数θ\thetaθ,使得损失函数J(θ原创 2021-08-12 22:39:09 · 265 阅读 · 0 评论 -
《最小二乘法》
文章目录思想推导应用直线拟合最小二乘法(Least Square,LS)思想最小二乘法目标:残差(观测点和估计点的差值)的平方和最小用于在线性回归模型中估计未知参数,非线性需要迭代的方法方程的数目要多于未知的参数数目推导 变量y与x可控变量x1 x2 …xt之间关系:y=β1x+β2x+...+βtx+εy=β_1x+β_2x+...+β_tx+εy=β1x+β2x+...+βtx+ε 转成矩阵格式V=Ax−BV=Ax-BV=Ax−B 式中,原创 2021-08-11 21:35:12 · 326 阅读 · 0 评论 -
《极大似然估计》
极大似然估计,Maximum Likelihood Estimate, MLE思想利用已知的样本结果信息,反推最具有可能(最大概率的)导致这些样本结果的模型参数值。(模型分布已定,参数未知)参数未知的概率分布模型模型已知,一系列由模型生成的点原理(1)已知分布中采样n个样本x1,x2,...,xm{x^1,x^2,...,x^m}x1,x2,...,xm(2)计算采样样本的似然函数L(θ)=∏i=1nP(xi,θ)L(\theta)=\prod_{i=1}^nP(x原创 2021-08-10 22:19:29 · 332 阅读 · 0 评论 -
随机抽样一致算法——RANSAC
文章目录一 理论介绍简介步骤特点二 直线拟合随机抽样一致算法(Random sample consensus, RANSAC)一 理论介绍简介通过反复选择数据中的一组随机子集,通过迭代方式来估计模型参数。步骤step1:根据需求选择模型,随机选取N个点(>=模型最少点数),对模型进行拟合;step2:设定容许误差sigma,在容差范围内的点为内点,在范围外的为外点,统计内点个数;step3:重新选取N个点,重复1~2步骤,直到达到设定的迭代次数;、step4:判断内点数最多的模型原创 2021-08-08 19:07:48 · 355 阅读 · 0 评论