极简笔记 Meta-Learning for semi-supervised few-shot classification

本文深入探讨了一种应用于半监督少样本分类的Meta-Learning方法,利用Prototypical Network提取特征并采用软K-Means及其变体进行聚类。通过将无标注数据分配到最近的类中心并不断更新,实现有效的分类效果。实验对比了soft K-Means、带簇的soft K-Means和mask soft K-Means,展示了其在处理未见过类别干扰时的优势。
摘要由CSDN通过智能技术生成

极简笔记 Meta-Learning for semi-supervised few-shot classification

论文地址 https://arxiv.org/pdf/1803.00676.pdf

本篇文章核心是给出了一种用于少样本半监督学习的分类算法。总体思路非常简单,通过一个网络 (Prototypical Network)提取特征,之后对特征进行聚类,聚类中心稳定之后拿去测试,测试时把测试样本按照更新了的聚类中心归过去,就完事了。

训练集中样本又分为两个集合 (S,R) ( S , R ) ,分别表示有类别标注数据和无标注数据。网络映射记作 h(x) h ( x ) , 有标注样本 xi x i , 无标注样本 x˜i x ~ i , 类别中心记作 pc p c , 更新过程中记作 p˜c p ~ c ,更新过程是典型的EM算法,和K-Means非常像,即把没标注的数据先归到最近类,更新聚类中心,再重新把没标注数据归类,迭代直到不变。
聚类过程
如果直接用K-Means聚类那这篇文章就不用发ICLR了。文章用了三种聚类算法:

soft K-Means

聚类中心更新公式

p˜c=ih(xi)zi,c+jh(x˜j)z˜j,cizi,c+jz˜j,cmj,c,where z˜j,c=exp(||h(x˜jp
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值