栈式降噪自编码器_CVPR2019(oral) 少样本学习之利用降噪自编码生成新分类参数

Generating Classification Weights with GNN Denoising Autoencoders for Few-Shot Learning

https://arxiv.org/pdf/1905.01102.pdf​arxiv.org

一、论文出发点

  少样本学习出发点老生常谈:并不是所有情况下,训练样本都足够,那么训练样本少,怎么学习模型参数了。

二、灵感来源

  很多类具有相似性,那么他们的分类参数实际也有关联,所以是不是可以从已有的基础类分类参数,学习新类的分类参数,并调整旧类参数了。 作者将灵感公式化如下:

8a20223e46ae7eb5dcf8476bc786903e.png

三、论文核心思想

那么作者是怎么实现上面公式中的分类参数生成器的了??

先直接上结果,论文从一组初始化分类参数,根据下述梯度上升公式(黄色部分),来调整W,其中r(w)为一个降噪编码的输出。

ef3a150e7c23850e702b7e090fa046d4.png

而初始化参数是这样的:基础类的参数就用基础类的,新类的初始化为他们少量样本输出特征的求平均。

为什么可行??

降噪编码的目标是要完美复现噪声污染前的信号,但是基本不可能,所以复现中存在偏差,而理论表明,这个降噪复现偏差向量(因为多特征,所以是向量)可以近似认为与特征密度分布函数梯度向量一致。(论文中公式2表达的意思)

也就是说,公式就是让W往密度分布高(真实数据所在位置:黄色部分)的位置走。

6a870fd267c2aa4c2d662f172aafd2dd.png

核心思想总结为:

根据已有基础类的分类参数数据分布,利用一个降噪自编码器去同时复现基础类分类参数分布和新类分类参数分布,由于要复现出大量基础类分类参数分布信息,可以认为复现的新数据分布能够合理的体现真实数据分布。

注意上述DAE是已经训练好的情况下,用于计算真正的新类参数。

四 、DAE的训练

为训练DAE,作者定义损失函数如下。注意这个里面没有真正的新类,新类样本是从基础类中选的,所以作者将其叫做伪新类,这样做是为了训练出DAE,因为基础类的分类参数才有真值。

b37b182d42eb483d4772f0c130c0252d.png

关于DAE的图卷积结构,有兴趣的可以自读。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值