1.前言
最近准备开始搞机器学习算法,加入到自己的研究课题中,因为行人预测传统模型建立比较困难,看到了一篇ECCV论文,采用了时空结构的Transformer,于是花了一周时间读了这篇论文跟代码的结构,基本理清了思路,原理跟代码的对应关系。
Transformer来源于变形金刚,因为Enconder Deconder 类似于变形金刚拆解跟组装.
Attention is All you need! 很帅
最近准备开始搞机器学习算法,加入到自己的研究课题中,因为行人预测传统模型建立比较困难,看到了一篇ECCV论文,采用了时空结构的Transformer,于是花了一周时间读了这篇论文跟代码的结构,基本理清了思路,原理跟代码的对应关系。
Transformer来源于变形金刚,因为Enconder Deconder 类似于变形金刚拆解跟组装.
Attention is All you need! 很帅