ITM(四)Multi-Level Visual-Semantic Alignments with Relation-Wise Dual Attention Network for ITM

背景这篇论文的工作来自华南理工大学,论文接受于IJCAI2019动机现有的方法通常只考虑具体的object实体和keyword的对应关系,而不考虑抽象的对象,例如对于某种行为的描述。对某种行为的描述,在现实世界的描述文本中也普遍存在。处理抽象对象的challenge是它们之间没有显式的联系,不像图像中具体的objects那样。作者提出一种关系上的双重关注网络(relation-wise dual attention network,RDAN)用于图像-文本匹配。RDAN与普通的DNN网络的区别:(
摘要由CSDN通过智能技术生成

背景

这篇论文的工作来自华南理工大学,论文接受于IJCAI2019

动机

现有的方法通常只考虑具体的object实体和keyword的对应关系,而不考虑抽象的对象,例如对于某种行为的描述。对某种行为的描述,在现实世界的描述文本中也普遍存在。处理抽象对象的challenge是它们之间没有显式的联系,不像图像中具体的objects那样。作者提出一种关系上的双重关注网络(relation-wise dual attention network,RDAN)用于图像-文本匹配。RDAN与普通的DNN网络的区别:
在这里插入图片描述

(除了确定的视觉实体与word之间的对齐,还要考虑抽象对象之间的潜在联系,故取名为多级 visual-text alignments)
如何捕捉潜在的视-语义关系,准确推断多层次的视-语义对齐,是进一步打破视觉与语言边界的关键。

网络结构

在这里插入图片描述

方法

视觉-语义的关系CNN模块
在获取到regions与words的相似度矩阵后,利用三种尺寸不同的卷积核:3x1卷积捕捉1词与3个区域的联系;1x3卷积捕捉1区域与3词的联系;3x3卷积用于3元词组和3元区域的联系

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值