有一个非常非常大的数据集,有正样本,有负样本,仅知道数据集的size,不知道数据的分布,设计算法从中采样出40000个正样本、60000个负样本,使得样本是等概率被采集到的。
思路:这可以理解为一个海量数据的问题,可以采用堆排序的方式来处理,而利用hash值来排序则可以获得随机性要求。
解法:维护一个大小为40000的小根堆(或者大根堆)、一个大小为60000的小根堆(或者大根堆)。遍历一遍数据集,计算每一个样本id的hash值,如果该样本是正样本:如果hash值大于根节点或者堆中元素不足40000,则插入堆中并调整堆为小根堆(或者大根堆),否则舍弃该元素;如果是负样本则作相应的操作。这一过程还可以使用分布式处理来提高时间性能。