Set Transformer: A Framework for Attention-based Permutation-Invariant Neural Networks

文献阅读笔记系列

一、题目:Set Transformer: A Framework for Attention-based Permutation-Invariant Neural Networks

  这是一篇利用transformer的自注意力机制来处理无序的集合数据的一种编码解码结构。

二、提出问题

  对于输入为集合数据的问题,深度模型需要满足两个条件:1):对于输入数据中的任何排列方式,模型都可以保持一致的输出。2):模型可以处理任意长度的集合数据(例如PointNet中的MLP在处理点云时所有点都共享权重,理论上可以处理任意数量的点,最后再通过均衡函数进行特征聚合)。
本文提出的模型也是按这两个条件所设计的。

三、创新点

  1、基于注意力机制,本文提出了一种全新的用于处理集合数据的解码器和编码器结构。
  2、利用诱导点方法将自注意力中的计算复杂度由平方转化为线性(对于输入集合中的实例数量来说)。

四、主要理论

本文主要设计了三种基于注意力的集合操作MAB,SAB, ISAB,如下图所示:
在这里插入图片描述
1、首先是注意力和多头注意力
  单头注意力:
A t t ( Q , K , V ; w ) = w ( Q K T ) V w h e r e   Q ∈ R n × d q ,   K ∈ R n v × d p ,   V ∈ R n v × d v ,   Q K T ∈ R n × n v Att\left( Q,K,V;w \right) =w\left( QK^T \right) V \\where\ Q\in \mathbb{R}^{n\times d_q},\ K\in \mathbb{R}^{n_v\times d_p},\ V\in \mathbb{R}^{n_v\times d_v},\ QK^T\in \mathbb{R}^{n\times n_v} Att(Q,K,V;w)=w(QKT)Vwhere QRn×dq, KRnv×dp, VRnv×d

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值