MVG读书笔记——单应矩阵估计这件小事(四)

不同于之前提到的代数误差,几何误差的最小化往往没有闭式解(就是解析解)。为优化几何误差,我们需要使用迭代的方法。
迭代最小化的方法一般包括5个环节:

1.损失函数

损失函数的选择是迭代最小化方法等基础,具体的讨论可以参见前几篇文章。

2.参数化

给定要建立的模型,我们要优化的东西最终是模型的几个参数。提取需要被优化的参数的过程叫做参数化。

以单应矩阵的估计为例,H可以看作一个9维的向量,使用这9个参数进行优化即为一种参数化的方法。但是实际上H只有8个自由度,一个最小化的参数化方法只需要8个参数。我们把前者的情况称为超参数化。

超参数话一般来说没什么副作用,最小化参数数量往往也不是必要的。甚至后者会使得损失函数的几何表面更加复杂,从而有更大概率落入局部最优解。

另一方面,当我们的解空间并没有那么大时,也不需要使用过多的参数。举例来说,两平面 π π 这满足透视变换H(即对应点连线相交于空间一点。透视变换没有封闭性),该变换只有6个自由度,可以用6个自由度进行参数化。具体来说,使用两个3维向量a,v,一个标量 μ 可以表示一个透视变换H,即

H=I+(μ1)vaTvTa

它的逆变换为
H1=I+(1u1)vaTvTa

3.函数表述

即带入参数化后的模型得到的损失函数。前几篇已经给出了使用9维向量参数化H时具体的函数表述。

4.初始化

对参数进行初始化会对于后面的迭代优化产生重要的影响。一方面,好的初始化可以使得迭代需要的步数大大降低;另一方面非凸函数的优化常常可能落入局部最小值,此时参数的初始化就更加重要。

一种常用的初始化方法是使用模型的线性近似解作为初始参数。比如使用DLT算法得到的值作为单应矩阵H的初始参数,从而使得参数的初始状态接近最优状态。

在解空间较小时,我们可以对解空间进行多次采样作为初始化的值,分别计算参数并比较它们的效果,从而选出最优解。

5.迭代

从初始参数开始一步步优化参数的过程称为迭代。常用迭代算法有

  • 梯度下降法:每一步向当前点的负梯度方向进行优化。
  • 牛顿法:使用参数的Hessian矩阵进行优化。
  • 高斯—牛顿法:使用Jacobian矩阵近似Hessian矩阵,仅在一定条件下可用。
  • LM算法:信赖域算法,同时具有梯度法和牛顿法的优点。

至此对于以单应矩阵为例进行模型估计的部分基本完成。剩下的去除外点、以及具体的迭代方法在其它文章里面有所涉及。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 5
    评论
咪咕MVG2000是一款使用于爱家TV的机顶盒。如果你希望对咪咕MVG2000进行刷机,有几个要点需要了解。 首先,刷机是指对设备的固件进行更改,以实现特定的功能或增加特定的应用程序。刷机可能会增强设备的性能或功能,但也可能会造成设备损坏,甚至使设备无法使用。因此,在刷机之前,必须自担风险,并确保有备份重要文件和数据的措施。 其次,刷机操作需要特定的工具和软件。针对咪咕MVG2000的刷机操作,可能需要在官方或相关技术论坛上寻找适当的刷机工具和教程。刷机工具和教程中通常会详细说明刷机步骤和所需的固件版本。 第三,刷机前需注意固件的来源和适用性。选择固件时,应确保下载源可信,最好是官方提供的固件或由权威用户论坛认可的固件。非官方或未经验证的固件可能存在风险,且不一定与设备完全兼容。 最后,在刷机之前,应详细阅读和理解刷机教程,并按照步骤进行操作。如果在刷机过程中遇到问题,最好寻求专业人士或相关论坛的帮助。切记对任何不了解的操作保持谨慎,并确保设备的安全性和稳定性。 总之,刷机可以实现额外的功能或增强设备的性能,但必须谨慎操作并自担风险。在刷机之前,务必备份重要数据,选择可信的固件和工具,按照教程进行操作,并对任何不了解的操作保持谨慎。
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值