深度学习经典导读
文章平均质量分 58
liu_xfx
这个作者很懒,什么都没留下…
展开
-
通过CVPR21 1650篇文章 快速解读CV大佬们都在做什么!
通过CVPR21 1650篇文章 快速解读CV大佬们都在做什么!原创 2022-09-09 14:54:12 · 194 阅读 · 0 评论 -
<4>高效解读Swin Transformer
Abstract:ViT(Vision Transformer)在图像大模型领域取得了突破性的进展,然而高昂的计算代价与单一的尺度信息限制了其的推广。Swin Transformer则借鉴了卷积神经网络归纳配置,建立了层级式架构移动窗口的Transformer框架,极大地减少了计算代价并能够完成视觉中稠密预测的任务。Swin Transformer在图像分类(ImageNet-1K),目标检测(COCO)和实例分割(ADE20K)任务上均取得了SOTA的结果。1. Problem and contrib原创 2022-04-30 17:50:02 · 1431 阅读 · 0 评论 -
<3>LSTM(Long Short-Term Memory)原文解读
原文:Long Short-T erm Memory,1997作者:Sepp Hochreiter, Jürgen Schmidhuber1.核心问题:通过循环神经网络学习较长时间间隔的任务通常需要很长的时间,这是因为误差在反传的过程中表现了严重的不充分与衰减(常见就是误差爆炸或者消失,对应的训练结果就是出现严重的权重震荡或者需要很长时间也无法完成训练)。LSTM提出就是为了解决上述问题。2.时变输入循环神经网络的相关研究(这部分描述的较为简略,细节难以把握):2.1 Gradient-原创 2022-02-28 19:55:16 · 4599 阅读 · 4 评论 -
<2> BP(Backprop) Algorithm 原文解读
原文:Learning representations by back-propagating errors, 1986作者:David E. Rumelhart*, Geoffrey E. Hintont & Ronald J. Williams*1.目标:使得网络的输出尽可能地接近理想的输出,因此需要调整代表着特征表示的隐藏节点的权重。但是,对于特定的任务哪些隐藏节点所表示的特征才是所希望的很难直接了解。为了在端对端中实现自动的特征选择,因此提出了BP算法。2.算...原创 2022-02-25 13:48:44 · 830 阅读 · 0 评论 -
<1> 深度学习文献导读 Overview
上述经典文献快速链接:链接:https://pan.baidu.com/s/19tWkxq2QWLddV-j-FmC9hw提取码:nrb8原创 2022-02-23 20:39:55 · 562 阅读 · 0 评论