本文主要根据作者的理解整理而来,有什么错误之处,请大家共同讨论指出。
1、图像滤波
在三维计算机视觉领域,通常对于二维图像的特征抽取是很关键的第一步,这主要包括抽取二维图像上的边缘、角点、纹理等。通常从这些被称为基元图的组成部分中,我们可以提取图像的以下特征:
1)不同物体边缘成像所带来的灰度跃变;
2)物体不同材料或者不同颜色组成部分之间的分界线会产生灰度跃变;
3)物体轮廓线与背景具有不同的反射特性,也会形成灰度值不连续;
4)物体受到光照会形成阴影,这也会形成层灰度的跃变。
从上面分析可以看出,如果能够较好的从二维图像中提取出这些信息,那么对于三维重建,物体定位,空间监控等后期目标能够有很好的支撑作用。而这些含有图像轮廓以及空间位置信息的点、线、面等特征,在图像上都体现为灰度值的不连续或者剧烈变化。也就是说,如果我们能够根据图像灰度矩阵找到灰度不连续的点位置,那么也就是实现了特征抽取。
不失一般性,从最简单的一维信号回忆,如果我们想从一维信号中找到其不连续的点,那么根据高等数学内容,可以对信号求导,其一阶导数局部最大值即为信号剧烈变化的点。