- 博客(60)
- 收藏
- 关注
原创 GRU和LSTM对比
GRU和LSTM对比网络结构对比参数量对比网络结构对比下图上为GRU的网络结构,下为LSTM的网络结构。不同的是,GRU将LSTM中的遗忘门和输入门合并成了一个重置门,细胞更新状态变为更新门。LSTM网络介绍参数量对比从下面对比可以看出GRU参数更少,可以减降低过拟合,训练效率更高。假设输入为:TIME_STEPS = 28 # 时间步INPUT_SIZE = 28 # 每个时间步的特征长度mCELL_SIZE = 100 # 隐藏神经元个数nOUTPUT_SIZE = 10
2020-07-24 18:00:19
2539
原创 DenseNet网络解析
DenseNet网络解析简介网络结构代码实现简介Densenet: 全称Dense Convolutional Network,稠密卷积网络。网络特点:1.网络结构代码实现以DenseNet-121网络为例网络输入inputs = Input([224, 224, 3])blocks = [6, 12, 24, 16]主干结构def denseNet(inputs, blocks): x = Conv2D(24, (7, 7), padding='same', str
2020-07-23 18:56:37
1635
原创 朴素贝叶斯算法——机器学习
朴素贝叶斯算法简介计算步骤参数估计极大似然估计贝叶斯估计算法特点简介朴素贝叶斯是一种基于概率论的分类算法,基于贝叶斯定理和特征条件独立假设,它是一种生成模型。首先学习特征x和标记y的联合概率分布P(x,y),即共同出现的概率,然后基于此模型,对给定的输入x,求出后验概率最大的输出y,即求条件概率分布 P(y|x)。计算步骤1.训练数据集 T = {(x1,y1), (x2,y2),…,(xN,yN)};2.计算先验概率分布 P (Y = ck),k = 1,2,…,K;3.计算条件概率分布 P
2020-07-14 21:14:09
468
原创 LSTM参数计算
LSTM参数计算LSTM结构输入输出结构门结构参数计算LSTM结构输入输出结构在n时刻LSTM的输入有三个:1.当前时刻网络的输入值Xt;2.上一时刻LSTM的输出值ht-1;3.上一时刻的单元状态Ct-1。LSTM的输出有两个:1.当前时刻LSTM输出值ht;2.当前时刻的单元状态Ct。门结构门有三类:忘记门,输入门,输出门。1.忘记门:以一定的概率控制是否遗忘上一层的隐藏细胞状态;2.输入门:负责处理当前序列位置的输入,更新细胞状态;3.输出门:决定输出什么。参
2020-07-13 16:28:08
1798
原创 MobileNet系列V1/V2/V3网络结构
MobileNet系列V1/V2/V3网络结构MobileNet V1网络特点网络结构模型压缩系数MobileNet V2网络特点网络结构MobileNet V3网络特点网络结构h-swish激活函数MobileNet V1网络特点MobileNet V1提出:1.深度可分离卷积(Depthwise Separable Convolution),由深度卷积和逐点卷积构成;2.模型压缩系数。标准卷积和深度可分离卷积的区别如下:输入特征图:DF x DF x M卷积核:DK x DK输出通道:
2020-07-12 15:58:39
2845
原创 EfficientDet网络解析
EfficientDet网络解析模型效果模型结构EfficientNet网络BiFPN网络anchorLoss函数Compound Scaling的影响EfficientDet系列参数EfficientDet系列模型效果模型效果EfficientDet在COCO上的精度和模型FLOPs如下所示:模型结构EfficientDet以EfficientNet网络作为backbone,BiFPN作为特征融合网络, 最终共享class/box预测网络。EfficientNet网络EfficientNe
2020-07-12 09:39:11
2789
2
原创 SRGAN超分辨重建
SRGAN超分辨重建简介效果展示网络结构Loss函数训练过程网络计算参数简介SRGAN全称:super-resolution generative adversarial network,是利用生成对抗网络进行图像超分辨率重建的一种深度学习网络。效果展示网络结构网络由生成网络和判别网络组成。生成网络:input + Conv(channel = 64, stride = 1) + Relu + B个残差块 + 2次Deconv(4倍放大)判别网络:input + Conv(channel =
2020-07-12 09:21:00
1630
原创 CycleGan风格迁移
CycleGan风格迁移简介效果展示网络结构Loss函数训练过程网络计算参数简介CycleGan全称: Cycle-Consistent Generative Adversarial Networks,循环一致性生成对抗网络,是一种Unpaired Image-to-Image Translation的深度学习网络。效果展示网络结构生成网络 G:X → Y生成网络 F:Y → X判别网络 DX:判别输入图像是否为X判别网络 DY:判别输入图像是否为Y前向cycle-consistency
2020-07-10 18:05:32
4240
原创 HOG图像特征提取算法
HOG图像特征提取算法HOG简介HOG计算步骤HOG参数计算HOG提取特征效果HOG代码实现HOG简介HOG全称:方向梯度直方图(Histogram of Oriented Gradient),发表于2005年的CVPR,是一种图像特征提取算法,和SVM分类器结合应用于行人检测领域。HOG通过计算图像中每个像素的梯度的大小和方向,来获取图像的梯度特征,是一种特征描述子。HOG计算步骤1.对输入图像进行灰度化2.利用gamma校正法对图像进行颜色空间归一化;3.计算图像中每个像素的梯度大小和方向;
2020-07-07 20:39:34
5598
原创 Cascade R-CNN网络解析
Cascade R-CNN网络解析效果创新点网络结构阶段数量的影响效果基于FPN+和ResNet-101的Cascade R-CNN在COCO上与最先进的单级模型比较如下:创新点该网络提出如下创新点:1.随着IOU阈值的增加,检测性能趋于下降,这是因为正样本的数量呈指数减低,导致了训练的过拟合;2.提出一种级联R-CNN,它由一系列随着IOU阈值的提高而训练的检测器组成;3.如果输入IOU与设置的阈值接近,则这个模型的检测效果会比输入其他IOU的模型好。网络结构该网络通过设计级联的R-C
2020-07-07 10:08:52
1642
原创 SSD模型结构解析
SSD模型结构解析模型简介模型结构anchorLoss函数模型简介SSD,全称Single Shot MultiBox Detector,single shot指的是SSD算法属于one-stage方法,MultiBox说明SSD是多框预测。SSD算法的性能与速度优于YOLO。模型结构SSD模型的输入图片大小是300x300,或512x512。SSD的主干特征提取网络依据VGG-16,并选取了6个有效特征层用来产生先验框,SSD采用了不同尺度和长宽比的先验框,每个网格的先验框的数量有4和6,最终共
2020-07-05 18:54:36
3377
原创 EfficientNet网络解析
EfficientNet网络解析效果创新点模型结构组合缩放系数网络结构效果EfficientNet网络在ImageNet数据集上的准确率和模型大小图如下:创新点1.模型可同时在宽度、深度和图片分辨率进行参数调整,提出了组合缩放系数,相比于单方面精度提升;2.根据算力不同,提出了B0-B7的缩放尺度;3.利用16个Block块,交叉使用3x3和5x5的卷积核进行特征提取。模型结构组合缩放系数EfficientNet使用了组合缩放系数,用单一的组合缩放系数ϕ\phiϕ,同时缩放宽度w、深度
2020-07-05 13:32:40
17352
8
原创 swish激活函数
swish和mish激活函数函数公式函数图像函数特点对比mish激活函数函数公式函数图像当β\betaβ取不同的值时,函数图像如下:当β\betaβ = 0时,Swish激活函数变为线性函数 f(x) = x2\frac{x}{2}2x,当β\betaβ = ∞\infty∞ 时,Swish激活函数变为0或x,相当于Relu,所以,Swish函数可以看作是介于线性函数与ReLU函数之间的平滑函数。——————————————————————————————————Swish函数的求导过
2020-07-03 14:48:06
26171
原创 NMS及其改进
NMS及其改进NMSSoft-NMS基于学习的算法Softer-NMSIOU-NetNMS1.只用于预测,不用于训练;2.在每一类的所有box中进行筛选;3.IOU太大则被删除。公式:Soft-NMS1.不要直接地删除所有IOU大于阈值的框,而是降低其置信度;2.分数降低常用两种方法:线性法和高斯法。线性法:M为当前得分最高框,bi 为待处理框,bi 和M的IOU越大,bi 的得分si 就下降的越厉害(而不是直接置零)。但该式并不是一个连续的函数,当一个边框与M的IoU超过阈值Nt时
2020-07-01 19:03:51
3459
原创 RetinaNet模型解析
Retinanet解析意义效果概览网络简介Focal Loss公式γ\gammaγ取值的影响训练细节意义1.解决训练过程中foreground和background类别极度不平衡的问题;2.解决easy和hard样本的问题。效果概览网络简介1.网络组成:Resnet + FPN + 2路FCN;2.创新点:Focal Loss;3.anchor:3中ratio{1:2, 1:1, 2:1}和3种size{20, 21/3, 22/3},面积从322到5212,金字塔等级[P3, P4,
2020-07-01 13:33:12
1437
原创 Faster-RCNN模型结构解析
Faster-RCNN解析网络结构三级目录网络结构(论文地址: https://arxiv.org/pdf/1506.01497.pdf)1.backbone:VGG、Resnet、Xception等2.neck:无3.head:sparse-prediction三级目录
2020-06-23 20:20:46
3349
原创 yolov3和yolov4损失函数
yolov3和yolov4损失函数yolov3损失函数loss公式yolov4损失函数yolov3损失函数loss公式其中:1.回归loss会乘以一个(2-w*h)的比例系数,如果没有这个系数AP会下降明显,大概是因为COCO数据集小目标很多的原因。2.置信度loss损失函数采用交叉熵,分为两部分:有物体,没有物体,其中nobody的loss还增加了权重系数,这是为了减少没有物体计算部分的贡献权重。3.分类loss损失函数采用交叉熵,当第i个网格的第j个anchor box负责某一个真实目标时
2020-06-22 21:29:16
16903
24
原创 mish激活函数
mish激活函数函数公式函数图像作用代码实现函数公式y = x*tanh(ln(1+exp(x)))函数图像作用激活函数每一点更加平滑,允许更好的信息深入神经网络,负值的时候允许较小的负梯度流入,保证信息不会中断,从而得到更好的准确性和泛化。代码实现class Mish(Layer): def __init__(self, **kwargs): super(Mish, self).__init__(**kwargs) self.supports_ma
2020-06-22 20:30:50
3731
原创 yolov3和yolov4网络结构
yolov4和yolov3网络结构对比yolov4网络结构架构图yolov4主干特征提取网络yolov3网络结构yolov3主干特征提取网络(Darknet53)效果图对比网络计算参数对比yolov4网络参数计算yolov3网络参数计算yolov4网络结构架构图1.backbone:Darknet53+CSPResnet2.Neck:PANet3.Head:yolov3-head共5次Conv2D-downsampledyolov4主干特征提取网络(图片来源:https://blog.cs
2020-06-22 19:38:15
3260
4
原创 图像resize方法
图像缩放方法opencv函数插值方法总结PIL函数插值方法opencv函数cv2.resize(img, (w, h), interpolation=cv2.INTER_CUBIC)插值方法opencv提供了5种插值方法:interpolation插值方法说明INTER_NEAREST最近邻插值选取离目标点最近的点作为新的插入点INTER_LINEAR双线性插值(默认)以距离为权重INTER_AREA区域插值像素关系重采样INTER_CUBIC
2020-06-22 17:17:49
814
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅