paper
文章平均质量分 95
paper
Dear_林
知其然知其所以然
展开
-
YOLO9000: Better, Faster, Stronger论文解读
论文:链接代码:链接原创 2022-05-03 14:31:50 · 293 阅读 · 0 评论 -
Batch Normalization: Accelerating Deep Network Training b y Reducing Internal Covariate Shift论文解读
论文:链接前言机器学习中有个很重要的假设:IID 独立同分布假设,就是假设训练数据和测试数据是满足相同的分布,这是通过训练数据获得的模型在测试数据上表现效果好的一个基本保障,也就是说模型的泛化能力。那BatchNorm的作用是什么呢?BatchNorm就是在深度神经网络的训练过程中使得每一层神经网络的输入保持相同的分布。其实BatchNorm的提出也是为了解决深度神经网络训练困难的问题,像Relu、residual network也是为了解决这一问题的。Q:为什么深度神经网络随着网络深度的加深,训练原创 2022-03-16 21:41:03 · 1081 阅读 · 0 评论 -
You Only Look Once: Unified, Real-Time Object Detection论文解读
论文:链接代码:TensorFlow版本核心思想:将整张图片作为网络的输入,直接在输出层对BBox的位置和类别进行回归。回顾:两阶段目标检测的实现过程:1、采用滑动窗口,对每个窗口进行分类和位置修正;2、用RPN网络提取候选区域,特征图对应的候选区域经过roipooling得到所需特征;3、SSD继承RPN类似的anchor机制,设定预设框并对每个预设框赋予groundtruth,全卷积网络训练目标。1、网络结构yolo的网络结构包含24个卷积层+2个全连接层组成。简单地说,就是将一张输入的图片原创 2022-03-15 14:07:08 · 541 阅读 · 0 评论 -
MMAL-Net 论文解读
目录简介AOLMAPPMMMAL-Net 网络结构论文:链接代码:链接简介在细粒度分类任务中,由于较小的类间差异和较大的类内差异,使其成为一项具有挑战性的问题。针对此情况,作者提出三分支(多分支)多尺度学习网络结构MMAL-Net,该网络结构只要包含两个模块:1、AOLM(attention object location module):用来预测物体的位置;2、APPM(attention part proposal mod.原创 2021-12-25 17:13:41 · 2373 阅读 · 2 评论 -
WS-DAN论文解读
细粒度分类:细粒度分类是为了解决“类内分类”问题,有别于猫狗分类,它解决的是“这只狗是萨摩还是哈士奇”这类问题;这类问题是类别之间的区别较小。WS-DAN(Weakly Supervised Data Augmentation Network)是一种针对细粒度视觉分类任务的方法,采用基于弱监督学习的图像增强的方法,结合注意力机制,这使得网络在不需要额外标注的情况下聚焦那些图像中有“话语权”的部分。论文亮点:1、 Bilinear Attention Pooling(双线性注意力池化机制)2、at原创 2021-12-25 16:26:11 · 2719 阅读 · 0 评论 -
Faster-RCNN论文及原码解读
目录一、模型的整体框架二、网络结构2.1 Conv Layers2.2 RPN(Region Proposal Networks)2.2.1 Anchors box的生成2.2.2 RPN实现原理2.2.2.1 rpn-data2.2.2.2 rpn_loss_cls,rpn_loss_bbox,rpn_cls_prob2.2.2.3 proposal2.2.2.4 roi_data2.3 ROI Pooling2.3.1 ROI Pooling2.3.2 ROI Align2.4 全连接层2.5 损失函数原创 2022-01-19 15:05:43 · 4399 阅读 · 0 评论 -
CBAM:Convolutional Block Attention Module
目录1、注意力机制2、论文解读2.1 Channel Attention Module(通道注意力机制)2.2 Spatial attention channel2.3 CBAM integrated with a ResBlock in ResNet2.4 实验结果1、注意力机制通俗的讲,注意力机制就是希望网络自动学出图片或文字序列中需要注意的地方。比如,人眼在观察一幅画时,不会将注意力平均分配到画中的每个像素,而是更多的将注意力放到人们关注的地方。从实...原创 2021-12-30 10:05:18 · 1339 阅读 · 0 评论