自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(60)
  • 收藏
  • 关注

原创 GRU和LSTM对比

GRU和LSTM对比网络结构对比参数量对比网络结构对比下图上为GRU的网络结构,下为LSTM的网络结构。不同的是,GRU将LSTM中的遗忘门和输入门合并成了一个重置门,细胞更新状态变为更新门。LSTM网络介绍参数量对比从下面对比可以看出GRU参数更少,可以减降低过拟合,训练效率更高。假设输入为:TIME_STEPS = 28 # 时间步INPUT_SIZE = 28 # 每个时间步的特征长度mCELL_SIZE = 100 # 隐藏神经元个数nOUTPUT_SIZE = 10

2020-07-24 18:00:19 2539

原创 DenseNet网络解析

DenseNet网络解析简介网络结构代码实现简介Densenet: 全称Dense Convolutional Network,稠密卷积网络。网络特点:1.网络结构代码实现以DenseNet-121网络为例网络输入inputs = Input([224, 224, 3])blocks = [6, 12, 24, 16]主干结构def denseNet(inputs, blocks): x = Conv2D(24, (7, 7), padding='same', str

2020-07-23 18:56:37 1635

原创 朴素贝叶斯算法——机器学习

朴素贝叶斯算法简介计算步骤参数估计极大似然估计贝叶斯估计算法特点简介朴素贝叶斯是一种基于概率论的分类算法,基于贝叶斯定理和特征条件独立假设,它是一种生成模型。首先学习特征x和标记y的联合概率分布P(x,y),即共同出现的概率,然后基于此模型,对给定的输入x,求出后验概率最大的输出y,即求条件概率分布 P(y|x)。计算步骤1.训练数据集 T = {(x1,y1), (x2,y2),…,(xN,yN)};2.计算先验概率分布 P (Y = ck),k = 1,2,…,K;3.计算条件概率分布 P

2020-07-14 21:14:09 468

原创 LSTM参数计算

LSTM参数计算LSTM结构输入输出结构门结构参数计算LSTM结构输入输出结构在n时刻LSTM的输入有三个:1.当前时刻网络的输入值Xt;2.上一时刻LSTM的输出值ht-1;3.上一时刻的单元状态Ct-1。LSTM的输出有两个:1.当前时刻LSTM输出值ht;2.当前时刻的单元状态Ct。门结构门有三类:忘记门,输入门,输出门。1.忘记门:以一定的概率控制是否遗忘上一层的隐藏细胞状态;2.输入门:负责处理当前序列位置的输入,更新细胞状态;3.输出门:决定输出什么。参

2020-07-13 16:28:08 1798

原创 MobileNet系列V1/V2/V3网络结构

MobileNet系列V1/V2/V3网络结构MobileNet V1网络特点网络结构模型压缩系数MobileNet V2网络特点网络结构MobileNet V3网络特点网络结构h-swish激活函数MobileNet V1网络特点MobileNet V1提出:1.深度可分离卷积(Depthwise Separable Convolution),由深度卷积和逐点卷积构成;2.模型压缩系数。标准卷积和深度可分离卷积的区别如下:输入特征图:DF x DF x M卷积核:DK x DK输出通道:

2020-07-12 15:58:39 2845

原创 EfficientDet网络解析

EfficientDet网络解析模型效果模型结构EfficientNet网络BiFPN网络anchorLoss函数Compound Scaling的影响EfficientDet系列参数EfficientDet系列模型效果模型效果EfficientDet在COCO上的精度和模型FLOPs如下所示:模型结构EfficientDet以EfficientNet网络作为backbone,BiFPN作为特征融合网络, 最终共享class/box预测网络。EfficientNet网络EfficientNe

2020-07-12 09:39:11 2789 2

原创 SRGAN超分辨重建

SRGAN超分辨重建简介效果展示网络结构Loss函数训练过程网络计算参数简介SRGAN全称:super-resolution generative adversarial network,是利用生成对抗网络进行图像超分辨率重建的一种深度学习网络。效果展示网络结构网络由生成网络和判别网络组成。生成网络:input + Conv(channel = 64, stride = 1) + Relu + B个残差块 + 2次Deconv(4倍放大)判别网络:input + Conv(channel =

2020-07-12 09:21:00 1630

原创 CycleGan风格迁移

CycleGan风格迁移简介效果展示网络结构Loss函数训练过程网络计算参数简介CycleGan全称: Cycle-Consistent Generative Adversarial Networks,循环一致性生成对抗网络,是一种Unpaired Image-to-Image Translation的深度学习网络。效果展示网络结构生成网络 G:X → Y生成网络 F:Y → X判别网络 DX:判别输入图像是否为X判别网络 DY:判别输入图像是否为Y前向cycle-consistency

2020-07-10 18:05:32 4240

原创 HOG图像特征提取算法

HOG图像特征提取算法HOG简介HOG计算步骤HOG参数计算HOG提取特征效果HOG代码实现HOG简介HOG全称:方向梯度直方图(Histogram of Oriented Gradient),发表于2005年的CVPR,是一种图像特征提取算法,和SVM分类器结合应用于行人检测领域。HOG通过计算图像中每个像素的梯度的大小和方向,来获取图像的梯度特征,是一种特征描述子。HOG计算步骤1.对输入图像进行灰度化2.利用gamma校正法对图像进行颜色空间归一化;3.计算图像中每个像素的梯度大小和方向;

2020-07-07 20:39:34 5598

原创 Cascade R-CNN网络解析

Cascade R-CNN网络解析效果创新点网络结构阶段数量的影响效果基于FPN+和ResNet-101的Cascade R-CNN在COCO上与最先进的单级模型比较如下:创新点该网络提出如下创新点:1.随着IOU阈值的增加,检测性能趋于下降,这是因为正样本的数量呈指数减低,导致了训练的过拟合;2.提出一种级联R-CNN,它由一系列随着IOU阈值的提高而训练的检测器组成;3.如果输入IOU与设置的阈值接近,则这个模型的检测效果会比输入其他IOU的模型好。网络结构该网络通过设计级联的R-C

2020-07-07 10:08:52 1642

原创 SSD模型结构解析

SSD模型结构解析模型简介模型结构anchorLoss函数模型简介SSD,全称Single Shot MultiBox Detector,single shot指的是SSD算法属于one-stage方法,MultiBox说明SSD是多框预测。SSD算法的性能与速度优于YOLO。模型结构SSD模型的输入图片大小是300x300,或512x512。SSD的主干特征提取网络依据VGG-16,并选取了6个有效特征层用来产生先验框,SSD采用了不同尺度和长宽比的先验框,每个网格的先验框的数量有4和6,最终共

2020-07-05 18:54:36 3377

原创 EfficientNet网络解析

EfficientNet网络解析效果创新点模型结构组合缩放系数网络结构效果EfficientNet网络在ImageNet数据集上的准确率和模型大小图如下:创新点1.模型可同时在宽度、深度和图片分辨率进行参数调整,提出了组合缩放系数,相比于单方面精度提升;2.根据算力不同,提出了B0-B7的缩放尺度;3.利用16个Block块,交叉使用3x3和5x5的卷积核进行特征提取。模型结构组合缩放系数EfficientNet使用了组合缩放系数,用单一的组合缩放系数ϕ\phiϕ,同时缩放宽度w、深度

2020-07-05 13:32:40 17352 8

原创 swish激活函数

swish和mish激活函数函数公式函数图像函数特点对比mish激活函数函数公式函数图像当β\betaβ取不同的值时,函数图像如下:当β\betaβ = 0时,Swish激活函数变为线性函数 f(x) = x2\frac{x}{2}2x​,当β\betaβ = ∞\infty∞ 时,Swish激活函数变为0或x,相当于Relu,所以,Swish函数可以看作是介于线性函数与ReLU函数之间的平滑函数。——————————————————————————————————Swish函数的求导过

2020-07-03 14:48:06 26171

原创 NMS及其改进

NMS及其改进NMSSoft-NMS基于学习的算法Softer-NMSIOU-NetNMS1.只用于预测,不用于训练;2.在每一类的所有box中进行筛选;3.IOU太大则被删除。公式:Soft-NMS1.不要直接地删除所有IOU大于阈值的框,而是降低其置信度;2.分数降低常用两种方法:线性法和高斯法。线性法:M为当前得分最高框,bi 为待处理框,bi 和M的IOU越大,bi 的得分si 就下降的越厉害(而不是直接置零)。但该式并不是一个连续的函数,当一个边框与M的IoU超过阈值Nt时

2020-07-01 19:03:51 3459

原创 RetinaNet模型解析

Retinanet解析意义效果概览网络简介Focal Loss公式γ\gammaγ取值的影响训练细节意义1.解决训练过程中foreground和background类别极度不平衡的问题;2.解决easy和hard样本的问题。效果概览网络简介1.网络组成:Resnet + FPN + 2路FCN;2.创新点:Focal Loss;3.anchor:3中ratio{1:2, 1:1, 2:1}和3种size{20, 21/3, 22/3},面积从322到5212,金字塔等级[P3, P4,

2020-07-01 13:33:12 1437

原创 Faster-RCNN模型结构解析

Faster-RCNN解析网络结构三级目录网络结构(论文地址: https://arxiv.org/pdf/1506.01497.pdf)1.backbone:VGG、Resnet、Xception等2.neck:无3.head:sparse-prediction三级目录

2020-06-23 20:20:46 3349

原创 yolov3和yolov4损失函数

yolov3和yolov4损失函数yolov3损失函数loss公式yolov4损失函数yolov3损失函数loss公式其中:1.回归loss会乘以一个(2-w*h)的比例系数,如果没有这个系数AP会下降明显,大概是因为COCO数据集小目标很多的原因。2.置信度loss损失函数采用交叉熵,分为两部分:有物体,没有物体,其中nobody的loss还增加了权重系数,这是为了减少没有物体计算部分的贡献权重。3.分类loss损失函数采用交叉熵,当第i个网格的第j个anchor box负责某一个真实目标时

2020-06-22 21:29:16 16903 24

原创 mish激活函数

mish激活函数函数公式函数图像作用代码实现函数公式y = x*tanh(ln(1+exp(x)))函数图像作用激活函数每一点更加平滑,允许更好的信息深入神经网络,负值的时候允许较小的负梯度流入,保证信息不会中断,从而得到更好的准确性和泛化。代码实现class Mish(Layer): def __init__(self, **kwargs): super(Mish, self).__init__(**kwargs) self.supports_ma

2020-06-22 20:30:50 3731

原创 yolov3和yolov4网络结构

yolov4和yolov3网络结构对比yolov4网络结构架构图yolov4主干特征提取网络yolov3网络结构yolov3主干特征提取网络(Darknet53)效果图对比网络计算参数对比yolov4网络参数计算yolov3网络参数计算yolov4网络结构架构图1.backbone:Darknet53+CSPResnet2.Neck:PANet3.Head:yolov3-head共5次Conv2D-downsampledyolov4主干特征提取网络(图片来源:https://blog.cs

2020-06-22 19:38:15 3260 4

原创 图像resize方法

图像缩放方法opencv函数插值方法总结PIL函数插值方法opencv函数cv2.resize(img, (w, h), interpolation=cv2.INTER_CUBIC)插值方法opencv提供了5种插值方法:interpolation插值方法说明INTER_NEAREST最近邻插值选取离目标点最近的点作为新的插入点INTER_LINEAR双线性插值(默认)以距离为权重INTER_AREA区域插值像素关系重采样INTER_CUBIC

2020-06-22 17:17:49 814

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除