两篇利用迁移学习进行跨媒体检索的paper

文章介绍了两种利用迁移学习提升跨模态检索效果的论文,包括Cross-modal Common Representation Learning by Hybrid Transfer Network和MHTN: Modal-Adversarial Hybrid Transfer Network。这些方法通过知识迁移减少模态差异,增强语义一致性。核心思想涉及模态共享、单模态和跨模态知识迁移,以及模态对抗语义学习,旨在创建模态无关的强语义共同表示。
摘要由CSDN通过智能技术生成

 


理想的跨模态公共表示:

1、很强的语义辨别能力:要有效的增强不同模态的语义一致性(即无论数据来自哪个模态,只要他们在语义上相同,共同表达就应该相似)

2、减少的模态的异质性差异(要让生成的共同表达只与语义相关,与模态无关)


这两篇文章都是将大规模的数据集(imagenet)迁移到小规模的跨模态数据集中,解决跨模态数据集数据规模不足的问题,以更好地进行跨模态检索。


一、Cross-modal Common Representation Learning by Hybrid Transfer Network 

1. Introduction:

本文提出了一个具有两个子网的跨模态传输模型。

跨模态混合迁移网络(CHTN):

模态共享迁移子网:利用源域和目标域都有的模态(图像)作为桥梁,将源域的知识传给目标域的两种模态。

层共享关联子网:保留了固有的跨模态语义相关性,以进一步适应跨模态检索任务。

 

2. Models:

   

2.1  模态共享迁移子网(Modal-sharing Transfer Subnetwork):

首先,图像用AlexNet的五个卷积层(conv1-conv5)得到卷积特征并且接收文本向量;然后,图像特征映射和文本经过两个全连接层,在全连接层中进行知识迁移。

单模态知识迁移(Single-modal knowledge transfer):

使用特征自适应的方法(feature adaptation method),最小化源域和目标域之间的最大平均差异 (

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值