为什么边缘(即梯度大的地方)明明对应二阶导的零点,而在sift中却找的是LoG的近似DoG的极值点:
因为sift中提取的特征点就不是边缘,而是“斑点”,这也就是为什么sift算法中会有一步“去除强边缘响应点”。
关于何为“斑点“,以及是如何用DoG极值代表“斑点“的详细过程参考:
https://www.cnblogs.com/YiXiaoZhou/p/5892083.html
为什么边缘(即梯度大的地方)明明对应二阶导的零点,而在sift中却找的是LoG的近似DoG的极值点:
因为sift中提取的特征点就不是边缘,而是“斑点”,这也就是为什么sift算法中会有一步“去除强边缘响应点”。
关于何为“斑点“,以及是如何用DoG极值代表“斑点“的详细过程参考:
https://www.cnblogs.com/YiXiaoZhou/p/5892083.html