深度学习之VIT

1. transformer与传统神经网络对比

1.1 传统神经网络的劣势:

  1. 传统神经网络依赖于时序关系,难以并行处理;
  2. 处理长序列存在梯度消失或梯度爆炸的问题,全局特征捕获能力差;
  3. 依赖于局部感受野,全局建模能力差;
  4. 需要额外的位置编码或者在输入时引入位置信息来处理序列中的位置关系,这增加了模型复杂性和设计的复杂度。

1.2 transformer解决的问题:

  1. 自护注意力机制允许模型关注输入序列中的所有位置,更好的捕捉长距离依赖和全局信息;
  2. 多头注意力机制增强了模型对不同位置的特征的表征能力,提升了泛化性能和学习效率;
  3. 加入位置嵌入向量直接解决了位置信息的处理问题,使得模型能够更好地处理序列数据。

2. transformer自注意力计算内容详见:

详解Transformer中Self-Attention以及Multi-Head Attention_transformer multi head-CSDN博客

3. vision transformer架构详见:

Vision Transformer详解-CSDN博客

4. 混合模型解决特征提取能力不足的问题

  • 9
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值