数据不平衡问题之a few-shot learning
对于机器来说,他的学习过程一般建立于大量的数据训练上面,但是对于一种生活中常见的情况,他会如何处理呢?比如说,小明去动物园看到了马、熊猫,但是由于动物园里面没有斑马,小明的爸爸这样告诉小明,斑马外形和马相似,它的皮肤颜色和熊猫配色一样。那么小明的脑海中就有了熊猫的形象。
for a large-scale FSL problem with 1,000 classes in the source domain, a strong base-line emerges, that is, simply training a deep feature embedding model using the aggregated source classes and performing nearest neighbor (NN) search using the learned features on the target classes.
摘自:Large-Scale Few-Shot Learning: Knowledge TransferWith Class Hierarchy(CVPR2019)
也就是说,通过拥有足够样本量的source classes(熊猫、马)去训练模型,学习到样本的深层次表示,将这些已知类型的语义信息综合起来,表示新输入的target classes(斑马)的类别信息。这里的source classes与target classes之间不重合。source classes拥有足够的样本量,而target classes只有少量数据(如果没有,则为zero-shot learning)。这里将大量的源数据信息作为先验知识引入到模