- 博客(1)
- 收藏
- 关注
原创 还在魔改Transformer结构吗?微软&中山大学开源超强的视觉位置编码,涨点显著
作者丨小马编辑丨极市平台写在前面由于Transformer对于序列数据进行并行操作,所以序列的位置信息就被忽略了。因此,相对位置编码(Relative position encoding, RPE)是Transformer获取输入序列位置信息的重要方法,RPE在自然语言处理任务中已被广泛使用。但是,在计算机视觉任务中,相对位置编码的有效性还没有得到很好的研究,甚至还存在争议。因此,作者在本文中先回顾了现有的相对位置编码方法,并分析了它们在视觉Transformer中应用的优缺点。接着,作者提出了新的
2021-08-03 16:08:18 881
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人