深度学习
@浪里小白龙
这个作者很懒,什么都没留下…
展开
-
ShuffleNet v2算法详解
论文地址:https://arxiv.org/pdf/1807.11164.pdfShuffleNet v1的升级版,文中提供了如何建立weights-light网络的四条准则,并做实验进行了详细的分析,并依照这四点建议,在v1的基础上修改ShuffleNet block先看图对比shuffleNet v2的效果。对比了GPU和ARM平台下的速度和准确率的分布情况。作者提出:单一的FLOP...原创 2019-10-20 22:10:51 · 862 阅读 · 0 评论 -
MobileNet-v1算法详解
MobileNetv1论文地址:https://arxiv.org/pdf/1704.04861.pdf谷歌出品的一种深度学习加速模型,在基本不影响准确率的前提下大大减少计算时间和参数数量深度学习网络广泛应用在图像分类、检测中,但是网络结构复杂,参数过多,计算时间过长使其不容易在移动端应用。因此模型压缩、模型加速在未来是一个比较活跃的领域。mobileNets主要将传统的卷积结构改...原创 2019-10-19 20:59:51 · 1305 阅读 · 0 评论 -
ShuffleNet v1算法详解
论文地址:https://arxiv.org/pdf/1707.01083.pdfFace++的一篇关于降低深度网络计算量的论文什么是group convlution 群卷积 ?我们假设上一层的输出feature map有N个,即通道数channel=N,也就是说上一层有N个卷积核。再假设群卷积的群数目M。那么该群卷积层的操作就是,先将channel分成M份。每一个group对应N/M个...原创 2019-10-19 20:31:59 · 526 阅读 · 0 评论 -
MobileNet V2算法详解
论文地址:https://arxiv.org/pdf/1801.04381.pdfMobieNet-v2结果本文使用的SSDlite算法,就是将SSD的prediction layer换成了DW+PW的结构大量的实验表明,feature map的复用能提高实验结果,因此本文也就使用了 shortcut结构。这篇论文的题目:MobileNetV2: Inverted Resid...原创 2019-10-17 14:23:04 · 1186 阅读 · 0 评论 -
深度学习模型评价标准
1.查准率,精度(precision)和召回率,查全率(recall)查准率:预测为正例中实际的正例数比例查全率:有多少个正例被分为正例ROC曲线横坐标是特异性(FPR):负正类 FP / (FP+TN)纵坐标的灵敏度(TPR):真正类 TP / (TP+FN)如何画ROC曲线 INST CLASS SCORE...原创 2019-09-07 11:21:53 · 2273 阅读 · 0 评论 -
GDBT
GBDT:Gradient Boosting Decision Tree 梯度增强决策树GBDT主要由三个概念组成:①RegressionDecistionTree②GradientBoosting(即GB),梯度增强③Shrinkage(缩减)RDTGBDT使用的是回归决策树,不是分类决策树!!!回归决策树是叶节点计算具体值。如预测年龄,身高等问题。...原创 2019-09-06 17:49:19 · 238 阅读 · 0 评论 -
MTCNN算法详解
MTCNN:基于多任务卷积神经网络的人脸检测本文特点:①提出结合face detection和alignment的轻量级级联网络②online hard sample mining网络结构输入图像resizeminsize是指图片中需要识别的人脸的最小尺寸(单位:px);factor是指每次对边缩放的倍数,文中使用的factor是0.709 ,原因是将长...原创 2019-07-05 11:29:29 · 974 阅读 · 0 评论 -
Face boxes详解
主要贡献:①Rapidly Digested Convolutional Layers(RDCL)快速缩小输入图片的尺寸②Multiple Scale Convolutional Layers(MSCL) 使用Inception模块增加感受野,离散化anchors(就是在不同层都有输入)③anchor densification strategy 锚点致密化策略(就是增加anchors...原创 2019-07-03 19:56:35 · 1292 阅读 · 0 评论 -
整流线性单元(Relu)及其变种(Leaky Relu、PRelu、ELU、SELU、CRelu、RRelu)
Relu (rectified linear unit)整流线性单元------可以有效防止梯度爆炸,将所有负值归零Relu(x)神经元的输出是max(x, 0)。提⾼ReLU 的带权输⼊并不会导致其饱和,所以就不存在前⾯那样的学习速度下降。另外,当带权输⼊是负数的时候,梯度就消失了,所以神经元就完全停止了学习。缺点是不能通过基于梯度的方法学习那些使它们激活为零的样本其他基于RELU的...原创 2019-07-02 23:05:40 · 10992 阅读 · 3 评论 -
Deconvolution、upsampling和unpooling详解
Deconvolution更注重的是如何将尺寸还原回来,而不注重value还原已知输入为X,卷积核为C,求输出特征Y,则卷积过程为Y=C∗X,如果已知Y和C,求输入X,,就是deconvolution过程.。实际计算中并不是求C的逆矩阵,而是求,所以 ,求逆矩阵可以还原尺寸和value,但是如果再还原出相同的value的话,我们何必费怎么大的力气,经过怎么多计算而又得到了与前几层完全相...原创 2019-06-12 12:24:11 · 723 阅读 · 0 评论 -
GAN 生成对抗模型详解
Goodfellow等人提出来的GAN是通过对抗过程估计生成模型的新框架。在这种框架下,我们需要同时训练两个模型,即一个能捕获数据分布的生成模型G和一个能估计数据来源于真实样本概率的判别模型D。生成器G的训练过程是最大化判别器犯错误的概率,即判别器误以为数据是真实样本而不是生成器生成的假样本。因此,这一框架就对应于两个参与者的极小极大博弈(minimaxgame)GAN网络如...原创 2019-05-23 19:53:35 · 3706 阅读 · 0 评论 -
DenseNet算法详解
DenseNet的结构示意图:DenseNet的连接方式更加粗暴:相互连接所有的层,每个层都会连接前面所有层作为额外的输入。DenseNet网络的优点包括:减轻了梯度消失 加强了feature的传递 更有效地利用了feature 一定程度上较少了参数数量 一定程度上减轻了过拟合下图是ResNet的连接方式:每个层与前面的某层shortcut元素级相加下图是...原创 2019-06-10 23:14:08 · 1047 阅读 · 0 评论