视觉理解论文系列(一)——ERNIE-VIL

简介

ERNIE-VIL是百度出品的知识增强视觉-语言预训练模型,首次将场景图知识融入到多模态预训练中,大幅提升了机器的“理解能力”。通过在预训练阶段加入场景图预测任务,使得模型能更精准的把握视觉-语言跨模态间的细粒度对齐。
论文观点,细粒度的语义对于区分不同对象、不同属性和不同关系的场景至关重要。因此,更好的视觉语言联合表示应该表现出不同模式之间详细的语义对齐。
在这里插入图片描述
以上这些样本中,只有物体、属性、关系上的细微差别,如果不能很好的抓住这些细粒度语义特征,将无法较好的把这些数据样本区分开来,导致在许多的视觉-语言任务中不会有很好的效果。

融合场景图知识的ERNIE-VIL


【A woman in a blue dress is putting her little white cat on top of a brown car in front of her house.】

当我们看到一张图片时,首先关注的是图像中的物体(Objects)和特点属性(Attributes)以及物体间的关系(Relationships)。以此图为例,人、车、房子、猫、树等构成了图片内容的基本元素;而物体的属性,如白色的猫、穿蓝色衣服的女人、棕色的汽车则是对物体做了更加精细的刻画;物体间的位置和语义关系,“猫在车上”、“车在房子前面”等构成了物体间的关联。这说明了对象、属性、关系共同构成了描述视觉场景的细粒度语义(Detailed Semantics)。
本篇论文的切入点在于如何让模型学到更好的细粒度特征表示。首先,基于从文本[1]解析出的场景图,ERNIE-VIL提出了3个多模态场景图预测(Scene Graph Prediction)任务,分别是:
物体预测(Object Prediction):随机选取图像中的一部分物体,如图中的"house",将其在句子中对应的词进行掩码处理,模型根据文本上下文和图片对被掩码的部分进行预测。损失函数设计,最小化负对数似然:
L o b j ( θ ) = − E ( w , v )   D l o g ( P ( W o i ∣ W \ _ o i , V ) ) L_{obj(\theta)}=-E_{(w,v)~D}log(P(W_{o_i}|W_{\backslash \_o_i},V)) Lobj(θ)=E(w,v) D

  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值