常见网络的实现
文章平均质量分 97
十小大
一个致力于编程自由的小学生,主要研究内容为计算机视觉、图像拼接、超分辨率重建、GUI界面可视化、图像处理;编程语言为Python、Matlab等
展开
-
【论文精读】一文看懂Swin Transformer!Shifted Window到底是个啥?Mask之后还和原来一样?
文章目录前言AbstractShifted Windows AttentionShifted window partitioning in successive blocks前言论文链接:Swin Transformer: Hierarchical Vision Transformer using Shifted Windows源码地址:https://github.com/microsoft/Swin-Transformer来看看为什么Swin Transformer能屠榜吧!Abstrac原创 2021-05-29 14:06:50 · 205537 阅读 · 14 评论 -
【论文精读】Focal Loss for Dense Object Detection(RetinaNet)全文翻译及重点总结
有最高准确率的目标检测器是基于R-CNN的二阶段检测方式。二阶段检测的分类器从稀疏的目标候选区域提取目标位置。相反,一阶段的检测器是从大量可能的目标区域中提取目标位置,因此有潜力去提升速度和简化模型。但是,一阶段的目标检测器的准确率却远不如二阶段。在本文中,我们研究了为什么会这样。我们发现了在一阶段目标检测器(多bbox)训练时,前景和背景类别的极端不平衡是主要原因。我们提出了解决这种不平衡的办法:把标准的交叉熵损失替换成对于分类良好样本的轻量级损失——Focal Loss。新型的Focal Loss原创 2021-05-20 20:20:22 · 197951 阅读 · 1 评论 -
一文读懂Focal Loss及Pytorch代码(详细注释)
文章目录前言Focal Loss详解Pytorch实现总结前言Focal Loss及RetinaNet原理见另一篇文章:【论文精读】Focal Loss for Dense Object Detection(RetinaNet)全文翻译及重点总结本文介绍Focal Loss以及其Pytorch实现。Focal Loss详解直接上公式:FL(pt)=−αt(1−pt)γlog(pt)FL(p_t)=-\alpha_t(1-p_t)^\gamma log(p_t)FL(pt)=−αt(1−pt原创 2021-05-26 11:33:59 · 201808 阅读 · 18 评论 -
CBAM:Convolutional Block Attention Module流程详解及Pytorch实现
CBAM结构详解及Pytorch实现原创 2021-04-24 14:35:30 · 207061 阅读 · 8 评论 -
SENet:Squeeze-and-Excitation Networks详解及Pytorch实现
文章目录前言一、什么是SENetSqueezeExcitation二、完整SE block的Pytorch实现总结前言计算机视觉研究领域的一个核心理论就是如何提高网络的表现力使其关注到图片的关键位置,从而提升网络性能。与一般网络通过空间维度优化不同,SENet(Squeeze-and-Excitation Networks)着手于优化channel维度,通过引入注意力机制,增加少量参数,使模型可以更好地获取不同channel上的特征,从而提高准确率。与其称为SENet,不如称其为SE Block。因原创 2021-04-23 13:22:29 · 205859 阅读 · 0 评论 -
MoblieNetV2: Inverted Residuals and Linear Bottlenecks详解及Pytorch实现
MoblieNetV2重点干货及Pytorch实现简介重点干货倒残差模块/反向残差模块(Inverted Residuals)线性瓶颈(Linear Bottleneck)MobileNetV2Pytorch实现MobileNetV2简介前言:最近在看EfficientNet,里面用到了与MobileNetV2相似的结构,所以找来看一下并记录。MobileNetV2是一个轻量化网络,论文题目和地址如下:论文题目:MobileNetV2: Inverted Residuals and Linear B原创 2021-04-21 22:29:26 · 196792 阅读 · 3 评论