看看老师视频与博客方法把细节都过了一遍
目录
VisionTransformer[VIT]
(212条消息) ViT全流程笔记,附代码详解。_AI Studio的博客-CSDN博客_vit代码
思考关于
Model interpreting go to these reference links to learn
Inductive bias
MAE_link:
Self-pretrained method don't need people to label dataset ,that's an effervescent work.
DeTR
DETR[sub-branch for Vit]_思考实践的博客-CSDN博客
Detr and vit
detr和vit有什么区别和联系啊,可以把他们整合到一起吗? - 知乎detr和vit有什么区别和联系啊,可以把他们整合到一起吗? - 知乎
参考资料
Vision Transformer(ViT)PyTorch代码全解析(附图解)_Adenialzz的博客-CSDN博客_vit-pytorch
//简单版
(212条消息) ViT:视觉Transformer backbone网络ViT论文与代码详解_louwill12的博客-CSDN博客
//完整版
神经网络学习小记录67——Pytorch版 Vision Transformer(VIT)模型的复现详解_Bubbliiiing的博客-CSDN博客
11.1 Vision Transformer(vit)网络详解_哔哩哔哩_bilibili //整体(212条消息) 一张图等于 16x16 个字,计算机视觉也用上 Transformer 了_公众号机器学习与生成对抗网络的博客-CSDN博客 https://blog.csdn.net/lgzlgz3102/article/details/109140622
//整体的补充 ,非常细节
ViT论文逐段精读【论文精读】_哔哩哔哩_bilibili //配套视频
ViT论文逐段精读【论文精读】 - 哔哩哔哩 (bilibili.com) //配套笔记
Yolo系列各个模块的讲解
深入浅出Yolo系列之Yolov5核心基础知识完整讲解 - 知乎 (zhihu.com)
//多个交互层多头注意力(MSA)和多层感知器(MLP)
Vision MLP 超详细解读 (原理分析+代码解读) (四) - 知乎 (zhihu.com)
(212条消息) ViT全流程笔记,附代码详解。_AI Studio的博客-CSDN博客_vit代码
//encoder,手写解释的很清楚
//为什么要选择layer normalization