基于DAE的GNN小样本分类方法学习笔记

本文介绍了如何使用基于DAE的GNN方法进行小样本分类。通过一次训练得到基类的元模型,二次训练时利用DAE修正新类权值。在二次训练中,引入“伪新类”并应用高斯噪声,通过GNN更新权值,最后以交叉熵损失定义分类损失函数。GNN网络结构中,节点间的关系基于余弦相似性,更新过程包括聚合和更新函数。
摘要由CSDN通过智能技术生成

文献Generating Classification Weights with GNN Denoising Autoencoders for Few-Shot Learning(文章链接:https://arxiv.org/abs/1905.01102)中提出了一种解决小样本的迁移学习方法。它通过某些类似的大量的样本的特征提取训练出一组用于分类的meta-model(元模型),元模型最终能分辨的所有类别统称为base class(基类),我称之为一次训练,这次训练是有大样本的,之后再输入novel class(新类)跟相应的小样本,通过Graph Neural Network based Denoising Autoencoders (基于降噪自编码器DAE的图神经网络GNN)进行训练,最终得到一个对基类跟新类都适用的分类模型,这部分我称为二次训练,它的训练集只有小样本的权值向量跟一次训练的输出。

本文的二次训练模型包含一个feature extractor network(特征提取网)跟 feature classififier(特征分类器),对类的区分是通过classification weight vectors(分类权值向量)实现的,它是一个d维向量,用\vec{w}表示,对于给定的图像\vec{x},特征提取网络会输出一个d维特征向量\vec{z}=F(\vec{x}|\theta ),特征分类器会输出一个分类得分:[s_{1},s_{2},...,s_{N}]=[\vec{z}^{T}\vec{w}_{1},\vec{z}^{T}\vec{w}_{2},...,\vec{z}^{T}\vec{w}_{N}]

具体的步骤如下:在一次训练时通过训练集D_{tr}^{bs}训练出一个能够分辨出N^{bs}个类的模型(或者网络),各个类的权值向量为

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值