Transformer网络结构:
Transformer是一种用于自然语言处理和机器翻译等任务的神经网络模型。它采用了encoder-decoder架构,其中encoder层由多个encoder堆叠在一起,decoder层也一样。Transformer的整体结构由以下几个部分组成:
1. Encoder层结构:包括PositionalEncoding、Self-Attention、Multi-Headed Attention、Layernormalization和Feed Forward NeuralNetwork等模块。Positional Encoding用于为输入序列的每个位置添加一个表示位置信息的向量,SelF-Attention用于计算输入序列中不同位置的关联度,Muli-Headed Attention则是通过多组Self-Attention的加权求和来提取输入序列的不同信息,Layer normalization用于归一化网络中间层的输出,Feed Forward Neural Network则是一个前馈神经网络用于对中间层的输出进行非线性变换。
2. Decoder层结构:与Encoder层类似,但在Decoder层中还包括masked multi-head attention和output层。masked multi-head attention是一种将Decoder自身的未来信息屏蔽掉的lattention机制,用于生成下一个时间步的输出。output层则是将Decoder的输出映射到目标语言的词汇空间。
改进思路:降低计算复杂程度;在每次迭代中,当前采样步骤的tokens被馈送到transformer编码层,并预测一组采样偏移量以更新下一步的采样位置。
VIT网络结构:
VIT通过将图像分割为一定数量的图块,将每个图块映射到低维空间做为序列输入,并将图像序列数据送入标准Transformer encoder中去,在较大的数据集上预训练&#