不错,我们现在是处在大数据时代,信息爆炸,数据量呈指数级增长。但是,数据量大,不代表有效的数据很多。而且对于有些数据,拿到往往是有缺失值的,那么数据缺失会带来哪些问题呢?
假设有1000个样本,20个特征,这些数据都是机器收集回来的(在slam上这种问题应该还蛮常见的),若机器上的某个传感器损坏导致一个特征无效时该怎么办?是否要重新采集整个数据集?在这种情况下,另外的19个特征要怎么处理?它们是否还可用?答案是肯定的,因为有些情况下数据集的采集整理并不是那么方便的,有些时候采数据的成本是很高的,即使数据集存在瑕疵,也是要通过一定的方法将数据集利用起来的,主要的方法有以下几种:
(1)使用可用特征的均值来填补缺失值
(2)使用特殊值来填补缺失值,如-1
(3)忽略有缺失值的样本
(4)使用相似样本的均值填补缺失值
(5)使用另外的机器学习算法预测缺失值
当然,也有很多文献讲其它的方法,但比较简单易行的应该就是上述的几种啦O(∩_∩)O