TRAR:Routing the attention spans in transformer for visual question answering学习笔记

TRAR:Routing the attention spans in transformer for visual question answering学习笔记

摘要

问题:如何动态调度全局和局部依赖关系建模

解决方法:基于实例的路由方案——TRAR。在TRAR中,每个视觉transformer层都配备了具有不同注意广度的路由模块。该模型可以根据前一步推理的输出动态选择相应的注意,以为每个实例制定最优路由路径。

introduction

image transformers:仅依赖SA中的全局依赖项建模难以满足需求

TRAR:实现了注意力的自动选择。

相关工作

动态神经网络:在推理过程中调整结构或参数以适应给定实例。

Transformer Routing

TRAR的整体框架1. routing process(路由过程)

创建多分支网络结构,其中每层都配备不同设置的模块。X为最后一个推理步骤的特征,F为路由空间,n为特征个数,d为特征维度。下一个推理步骤的输出为:
路由过程α是路径控制器预测的路径选择概率,F是一组模块。在测试过程中,α可以二值化以进行硬选择,也可以保持连续以获得软路由。

优化后:
优化后D为邻接掩码,用于计算各元素之间的耦合系数:邻接掩码D的值为0或1,如果在目标元素的注意广度内则为1。因此,注意力只在定义的广度内执行。

SA:
SA简化后的SA:
在这里插入图片描述2. path controller(路径控制器)

在TRAR中,每个视觉SA层都配备了一个路径控制器来预测路由选项的概率,即模块选择:
在这里插入图片描述AttentionPool是基于注意力的池化方法。
3. attention span(注意广度)

注意广度代表注意特征的接受域。
4. optimization

软路由
硬路由
5. network

基于MCAN:将视觉SA模块替换为路由模块;在视觉和语言输出之后添加了两个attentionpooling层。
路由SA

实验结果

实验结果Base为MCAN;S为软路由;H为硬路由。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值