【零样本学习】Zero-Shot Visual Recognition using Semantics-Preserving Adversarial Embedding Networks

本文提出了一种名为SP-AEN的新方法,用于解决零样本视觉识别中的语义损失问题。通过引入视觉到语义空间的嵌入器和判别器,SP-AEN能将语义信息从重构子空间转移到判别子空间,从而改善对未见类别的识别效果。这种方法通过对抗学习保持语义信息,并通过图像重构验证了语义信息的保留,提高了识别准确性和生成能力。
摘要由CSDN通过智能技术生成

Abstract

基于visual-semantic embedding的ZSL方法存在信息损失(semantic loss)的问题,在训练过程中,如果某些语义信息对分类的区分性不大,则会被丢弃,但是这些信息往往对识别unseen class很重要。为了避免semantic loss,我们提出 Semantics-Preserving Adversarial Embedding Network (SP-AEN),通过引入visual-to-semantic space embedder ,将语义空间分解成两个子空间,分别进行分类和重构任务(可以认为是两个互相冲突的任务)。通过对这两个子空间进行对抗学习,SP-AEN可以将语义信息从重构子空间迁移到判别子空间,从而改进对unseen class的识别效果。与先前的方法相比,SP-AEN不仅可以提升识别效果,还能生成图像,验证了语义信息保留的有效性。
Note:该方法仍然是visual-semantic embedding的方法

Motivation

基于visual-semantic embedding的ZSL方法的语义迁移能力受限于semantic loss问题。训练阶段,丢弃低方差信息(判别信息较少)对分类有利,但是由于seen class和unseen class之间的语义差异,这些信息在测试时(对于unseen class)往往有较强的判别性,这将导致对unseen class的语义信息损失。主要原因是虽然 class embedding 具有丰富的语义信息,但它只是语义空间中的一个点,图像映射(将视觉空间映射到

  • 3
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值