深度学习
文章平均质量分 80
积累深度学习经典网络和实践经验
linton68
这个作者很懒,什么都没留下…
展开
-
归一化和标准化
相同点两者都是通过先平移(分子相减)、后缩放(分母)实现;本质上都是进行特征提取,缩小范围,便于后续的数据处理。两者都能加快梯度下降、损失函数收敛,提升模型精度, 防止梯度爆炸(消除因为输入差距过大而带来的输出差距过大,进而在反向传播的过程当中导致梯度过大,从而形成梯度爆炸)不同点概念归一化将数据规约到(0,1)或者(-1,1)区间,而标准化将数据规约为均值为0、标准差为1的分布上。实现形式归一化xnew=x−xminxmax−xminx_{new} = \cfrac {x - x原创 2020-09-17 13:56:51 · 651 阅读 · 0 评论 -
loss for bounding box
概述本文主要汇总目标检测算法中用于计算bounding box偏差的loss函数。Smooth L1 Loss由微软rgb大神于Fast RCNN论文提出该方法(1)假设xxx为预测框和真实框之间的数值差异,则L1L_{1}L1、L2L_{2}L2和SmoothL1Smooth_{L_{1}}SmoothL1 LossLossLoss定义为:L1=∣x∣L_{1} = \mid x \midL1=∣x∣L2=x2L_{2} = x^2L2=x2SmoothL1(x)=.原创 2020-08-11 10:05:59 · 911 阅读 · 0 评论 -
Spatial Pyramid Pooling
简介Spatial Pyramid Pooling即空间金字塔池化,是大神何凯明与2014年在论文《Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition》中提出。Spatial Pyramid Pooling主要功能是将不同尺寸的输入转化为固定尺寸的输出,使得神经网络在训练过程和推理过程都能摆脱对固定尺寸的依赖,避免了因为适应固定尺寸对原始图片进行裁剪(crop)或者变形(wrap)引起的信息丢失和位置原创 2020-08-07 10:27:46 · 696 阅读 · 0 评论 -
Depthwise Separable Convolution
Depthwise Separable ConvolutionDepthwise Separable Convolution于2017年在《MobileNets: Efficient Convolutional Neural Networks for Mobile VisionApplications》提出。标准卷积操作所使用卷积核与输入特征具有相同的通道数,卷积核个数即为输出特征的通道数。Depthwise Separable Convolution将卷积操作分成2步:Depthwise Convo原创 2020-08-02 22:38:25 · 178 阅读 · 0 评论 -
YOLOv4网络结构
YOLOv4的出现引起了一定的轰动,在保持快速检测的前提下(相对于YOLOv3略低)在COCO2017数据集上AP值相对于YOLOv3提升了差不多10个点。最近准备用YOLOv4,顺便学习一下网络结构(虽然YOLOv4的主要优势可能不在这里),这边作个笔记。图1. yolov4完整网络结构(backbone + head)...原创 2020-05-30 15:10:40 · 3029 阅读 · 0 评论 -
如何利用cocoapi评估模型在coco数据集上的AP
目前绝大多数目标检测算法都使用coco数据集进行模型评估。那么如何验证sota模型的是否达到paper给出的AP,或者自己的数据増广策略、训练调参等是否能提升模型的AP?cocoapi提供了接口!下面给出使用python调用cocoapi流程和实例:首先切换到 PythonAPI路径下,然后make在PythonAPI路径下新建脚本文件:evaluate.py脚本代码:# -*- c...原创 2020-03-16 12:39:34 · 4371 阅读 · 8 评论