深度学习(二):Deep Supervised Cross-modal Retrieval

本文介绍了深度监督跨模态检索(DSCMR)方法,该方法在公共表示空间中利用语义和分类信息,确保模态间的不变性和语义辨别性,以提高跨模态检索的性能。通过对标签和模态不变性的联合优化,DSCMR解决了异构数据表示学习的挑战。
摘要由CSDN通过智能技术生成

Deep Supervised Cross-modal Retrieval,CVPR 2019

Motivation

值得注意的是,即使分类信息已被用于一些深度学习方法,分类信息仅用于学习每一模态内部或模态间的可区分特征。语义信息(语义信息我在这里理解成公共空间到标签的映射)在这些跨模态学习方法中没有得到充分的利用。

DSCMR同时最小化模态不变性损失,并采用权值共享策略在公共表示空间中学习模态不变性特征,为了保证学习的表示法在语义结构上具有辨别性,并且在模态间具有不变性,对两两标签信息和分类信息都尽可能地进行了充分的演绎。

Attributions

  • 提出了一种深度监督的跨模态学习结构,通过在端到端同时保留语义识别和模态变化,可以有效地学习异构数据的常用表示。
  • 最后一层有权值共享约束的子网络用于学习图像和文本模式之间的交叉模态关联。此外,还将模态不变性损失直接引入到目标函数中,以消除跨模态误差。
  • 采用线性分类器对公共表示空间中的样本进行分类,并且最小化标签空间和公共表示空间的识别损失,这使得学习到的共同表象具有显著的区别性。

Related Works

  • 学习这种常见表示空间的方法有多种,大致可分为两类:   1)二值表示学习,也称为交叉模态哈希;   2)实值表示学习。由于所述表示被编码为二进制码,因此由于信息的丢失,检索
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值