Transformer、VIT、SWin-TR、DETR的网络结构和

Transformer网络结构:

Transformer是一种用于自然语言处理和机器翻译等任务的神经网络模型。它采用了encoder-decoder架构,其中encoder层由多个encoder堆叠在一起,decoder层也一样。Transformer的整体结构由以下几个部分组成:

1.  Encoder层结构:包括PositionalEncoding、Self-Attention、Multi-Headed Attention、Layernormalization和Feed Forward NeuralNetwork等模块。Positional Encoding用于为输入序列的每个位置添加一个表示位置信息的向量,SelF-Attention用于计算输入序列中不同位置的关联度,Muli-Headed Attention则是通过多组Self-Attention的加权求和来提取输入序列的不同信息,Layer normalization用于归一化网络中间层的输出,Feed Forward Neural Network则是一个前馈神经网络用于对中间层的输出进行非线性变换。
2.  Decoder层结构:与Encoder层类似,但在Decoder层中还包括masked multi-head attention和output层。masked multi-head attention是一种将Decoder自身的未来信息屏蔽掉的lattention机制,用于生成下一个时间步的输出。output层则是将Decoder的输出映射到目标语言的词汇空间。

改进思路:降低计算复杂程度;在每次迭代中,当前采样步骤的tokens被馈送到transformer编码层,并预测一组采样偏移量以更新下一步的采样位置。

VIT网络结构:

VIT通过将图像分割为一定数量的图块,将每个图块映射到低维空间做为序列输入,并将图像序列数据送入标准Transformer encoder中去,在较大的数据集上预训练&#

  • 5
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值