摘要:
作者提出一种变化的贝叶斯框架来提升小样本学习的性能。这一想法的动机是基于单点的度量学习方法固有的噪声脆弱和容易有偏见随机变化推理被调用来近似消除偏差的特定类别的样本分布。同时,利用新样本的分布统计量实现无分类器预测。
介绍:
点估计非常好,但是有两个局限性:当有限的支持点在嵌入空间中分布不均匀时,很难估计这样一个特定的点。例如,基于原型的方法计算每个类的嵌入式支持示例的平均值,由于数据严重受限,这很容易受到噪声的影响。它们缺乏可解释性,因为单个嵌入不足以指示一个类
我们在支持和目标集的元素之间共享分布生成机制,然后将它们合并到特定于类的大型分布中。通过估计每个类的分布,我们可以直观地计算出目标点所属的每个类的置信度,并根据置信度进行分类。此外,我们的方法允许对模型进行完整的贝叶斯分析,并且与现有技术相比,它的可解释性明显更好。
方法:
c-way k-shot 训练集和测试集不重叠。
从点到分布:一种变分学习策略:
z是整个数据集的分布。
p(z|T) = p(z)p(T |z)/p(T)
但是在贝叶斯规则下学习Z的分布,涉及到一个计算棘手的积分。其中一种近似方法是变分推理,它是一种理论上有吸引力且易于计算的方法。