- 博客(1)
- 收藏
- 关注
转载 Flatten Attention
本文作者提出一种聚焦线性注意力机制 (Focused Linear Attention),力求实现高效率和高表达力。在将 Transformer 模型应用于视觉任务时,自注意力机制 (Self-Attention) 的计算复杂度随序列长度的大小呈二次方关系,给视觉任务的应用带来了挑战。各种各样的线性注意力机制 (Linea...
2024-08-08 04:14:57 8
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人