VLN: 基于全局对比训练的视觉-语言导航方法

每天给你送来NLP技术干货!


来自:CAAI认知系统与信息处理专委会

视觉-语言导航任务(Vision-Language Navigation, VLN)是指在陌生环境中,无人系统依据语言指示和观测图像之间的跨模态匹配信息,进行自主智能路径导航的方法。不同于前进、后退等简单操控指令,VLN采用类似人人交互的语言指示,比如“走出右侧大门,穿过卧室和客厅,在绿色地毯上的餐桌旁停下”。VLN是一种新型的跨模态智能人机交互方法,能够极大地提升无人系统的自主能力,能够为无人系统走向实用提供关键技术支撑。

序列到序列(Sequence to Sequence, Seq2Seq)模型是VLN最常见的模型之一。Seq2Seq首先对语言指令进行序列编码,再根据逐步观测的视觉图像,进行序列移动方向预测解码,从而实现智能导航。最新的研究表明:在解码时,利用Beam-Search进行多条路径探索,通过路径评价函数获得最优导航路径,可以获得更好的导航精度。但现有工作使用的路径评价函数是由局部方向选择算子组合构建的,在全局多条路径对比上能力不足,可能会出现严重偏差,如图1。

9fb81e6b71cb4da46461152fd0206701.png

图1 VLN分数偏差问题示例

为了解决该问题,军事科学院国防科技创新研究院智能人机交互团队设计了新型全局路径评估函数,提出了一种全局对比训练的策略,大幅提升了VLN的导航精度。相关论文《Vision-Language Navigation with Beam-Constrained Global Normalization》已被国际知名期刊 IEEE Transactions on Neural Networks and Learning Systems录用;该论文在提交时,算法性能在公开VLN数据集R2R(Room-to-Room)上排名第一。

a85dc36c7a95f0d8e8f5884d44a14785.jpeg

榜单地址:

https://eval.ai/web/challenges/challenge-page/97/leaderboard/270

主要工作与贡献

该论文提出了一种基于全局对比训练的视觉-语言导航方法,可以对候选路径进行跨模态全局匹配评估。不同于传统方法,该论文主要聚集在如何利用正确路径和错误路径进行对比训练,获得较优的全局语言-路径匹配评估函数,有效提升VLN的导航精度。论文算法框架可以分为两个部分:(1)Baseline:Seq2Seq模型,基于局部训练的序列动作预测,用于训练语言-路径匹配的局部评估函数;(2)全局对比训练模型:基于全局对比训练的全局评估函数。在测试时,将局部评估函数和全局评估函数进行结合,实现高精度的导航路径预测,如图2所示。

3fbc21a7b0d2a13319d4ed5c745f3b70.png

图2 基于全局对比训练的VLN框架

A Baseline 如图2所示,该论文选择Seq2Seq模型作为Baseline,首先将语言信息进行编码,再基于视觉信息进行动作预测解码。

语言编码:利用LSTM对输入的自然语言文本进行编码,获得文本指令的特征向量。

视觉编码:利用ResNet-152对观测图像进行特征提取,结合运动方向特征进行视觉编码。

动作预测:采用Seq2Seq模型进行动作解码,获得序列导航动作。

进度监视器:作为一项必不可少的辅助推理任务,进度监视器可以提供来自环境的额外训练信息。

训练:局部对比训练,只考虑当前环境及下一步动作。

局部评估函数:通过将局部方向选择概率值累加,获得整个路径与描述语言的匹配度。

B 基于Beam-Search的全局对比训练策略

Baseline将一个路径的匹配度计算分解为单步方向选择得分累加,由于单步方向得分是单独计算的,没有明确涵盖全局信息,因此将Baseline评估函数称为局部评估函数。由于局部评估函数没有从全局视角考虑路径和语言的匹配度,所以局部得分累加的方式容易出现匹配错误,为了缓解这一问题,本文提出了明确的全局匹配评估函数,并设计了全局训练策略进行优化训练,从而获得高效的全局匹配评估函数。

具体来说,本文训练了一个全局评估子模型,主要用来进行路径-语言全局匹配评估,从而使得不同路径的评估得分更加具有可比性。

bc393a6a0ec87b5a1844436cea79892b.png

图3 深度多模态相似性模块和speaker模块示意图

DMSM模块:计算语言的整体描述特征与路径视觉的整体描述特征之间的距离;距离越近,则路径和语言越匹配。

Speaker模块:根据路径反向生成指令语言的概率,是VLN的逆命题,可以反映全局路径和语言的匹配度。

全局对比训练:在训练时,利用Beam-Search搜索出多条正确路径和多条错误路径,设计对比损失函数,使得正确路径得分高于错误路径,可以有效地对全局评估模块DMSM和Speaker模块进行训练。

全局评估函数:在测试时,对于任意一对路径和语言,分别利用DMSM和Speaker模块对二者之间的匹配度进行计算,通过线性叠加,可以获得该路径的全局评估得分。

实验结果

算法的测试是在VLN公开数据集上进行的。本文对比了多个现有经典VLN算法,实验结果表明,本文提出的算法导航精度比Baseline高出13%,显著度较高;在同期VLN算法的导航精度最高,证明了本文算法的有效性。

3039aedb76af59f7f6c093a240d9f6e8.png

总结与展望

本研究提出了一种 VLN 全局对比训练方法,用于缓解现有局部评估函数在全局路径-语言匹配评估方面的不足。该方法核心要点是如何从错误路径/负样本中学到有用的信息,这是现有其他VLN算法关注较少的地方,也是本文的落脚点,实验结果表明了本文方法的有效性。

最近,通过视觉-语言跨模态预训练模型在VLN中性能表现优越,比如VLN BERT,相对于传统LSTM模型,预训练能够获得更多的先验知识,能够为VLN提供更鲁棒的基础框架,本文未来工作将在VLN BERT等预训练模型的基础上,进一步利用全局对比训练方法,实现更高效的VLN算法。

论文链接:

https://ieeexplore.ieee.org/document/9813501

引用信息:

L. Xie, M. Zhang, Y. Li, W. Qin, Y. Yan and E. Yin, "Vision–Language Navigation With Beam-Constrained Global Normalization," in IEEE Transactions on Neural Networks and Learning Systems, 2022, doi: 10.1109/TNNLS.2022.3183287.


📝论文解读投稿,让你的文章被更多不同背景、不同方向的人看到,不被石沉大海,或许还能增加不少引用的呦~ 投稿加下面微信备注“投稿”即可。

最近文章

EMNLP 2022 和 COLING 2022,投哪个会议比较好?

一种全新易用的基于Word-Word关系的NER统一模型

阿里+北大 | 在梯度上做简单mask竟有如此的神奇效果

ACL'22 | 快手+中科院提出一种数据增强方法:Text Smoothing


下载一:中文版!学习TensorFlow、PyTorch、机器学习、深度学习和数据结构五件套!  后台回复【五件套】
下载二:南大模式识别PPT  后台回复【南大模式识别】

投稿或交流学习,备注:昵称-学校(公司)-方向,进入DL&NLP交流群。

方向有很多:机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等。

7f1a9f3920e33d65c229a697b59250aa.png

记得备注呦

整理不易,还望给个在看!
  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值