An Attention Free Transformer

在这里插入图片描述

An Attention Free Transformer

Abstract

引入了无注意变压器(AFT),这是transformer的一种有效变体,它消除了点积自我关注的需要。在AFT层中,key和value首先与一组学习的位置偏差组合,其结果以元素方式与查询相乘这种新的操作具有线性的存储器复杂性。上下文大小和特征尺寸,使其与大输入和模型大小兼容。本文还介绍了AFT-LOCAL和AFT-COV这两种模型变体,它们在保持全局连通性的同时利用了局部性和空间权重分担的思想。在两个自回归建模任务(CIFAR10和Enwik8)以及一个图像识别任务(ImageNet-1K分类)上进行了广泛的实验。

Methodology

给定输入x,首相将其进行线性变换为:
在这里插入图片描述
然后执行以下操作:
在这里插入图片描述
换言之,对于每个目标位置t,AFT执行值的加权平均,其结果与按元素相乘的查询相结合。具体地说,加权简单地由keys和一组学习的成对位置偏差组成。这提供了一个直接的优势,即不需要计算和存储昂贵的关注矩阵,同时像MHA那样维护query和value之间的全局交互。
为了进一步了解AFT与MHA的关系,我们可以将公式2重写为:
在这里插入图片描述

启示

  • 这篇论文的核心仍然是解决transformer的self-attention的2次方的复杂度问题,这种复杂度与输入序列呈线性的注意力非常有必要,可以参照这一篇论文
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

「已注销」

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值