为什么对机器来说识别/检测一张图片那么难?而对人来说,一目了然?
关于计算机视觉(CV)的一个问题如果你想要使用机器学习算法来训练一个分类器,去检测图像。如检测图像是否是一辆汽车,当人看到的是一辆汽车,在对于汽车上的一个门把手时,而计算机看到的却是一个数据矩阵(表示像素强度值的网格)。如下图1
像素强度代表每个像素的亮度值。计算机根据这个像素点亮度矩阵来告诉我们这些数值,代表一个汽车的门把手
假设图片的特征维数是50*50像素的图片。图片已经很小了,长宽各有50个像素但这依然是2500个像素点,因此特征向量的元素数量N=2500,特征向量x就是包含了所有像素强度的列表,对于典型的计算机图片表示方法如果存储的是每个像素点的灰度值,那么每个像素点值是0-255,如果使用RGB,每个像素点包含红绿蓝三个值那么n=7500,所以对于机器来说识别/检测一张图片比较难。
参考来自吴恩达点机器学习课程,老师讲的特好,会有一种豁然开朗的感觉,适合机器学习!强烈推荐。