![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
洛北辰南
这个作者很懒,什么都没留下…
展开
-
SENet与SKNet详解
转自:https://blog.csdn.net/qixutuo6087/article/details/88822428文章目录0.摘要1.引入2.SE-Net结构2.1 Sequeeze:Global Information Embedding2.2 Excitation: Adaptive Recalibration2.3 Scale3.SE模块嵌入实例4.SENet Experimen...转载 2019-06-20 12:11:46 · 2654 阅读 · 0 评论 -
残差网络ResNet
转自:https://blog.csdn.net/loveliuzz/article/details/79080194上图中是用5个残差块连接在一起构成的残差网络,用梯度下降算法训练一个神经网络,若没有残差,会发现随着网络加深,训练误差先减少后增加,理论上训练误差越来越小比较好。而对于残差网络来讲,随着层数增加,训练误差越来越减小,这种方式能够到达网络更深层,有助于解决梯度消失和梯度爆炸的...转载 2019-06-20 11:55:59 · 531 阅读 · 0 评论 -
GoogLeNet
转自:https://blog.csdn.net/loveliuzz/article/details/79080194文章目录综述Inception模块介绍GoogLeNet介绍1、GoogLeNet——Inception V1结构2、Inception V2结构3、Inception V3结构4、Inception V4结构,它结合了残差神经网络ResNet。综述获得高质量模型最保险的做...转载 2019-06-20 11:50:13 · 989 阅读 · 0 评论 -
VGG Net
转自:https://blog.csdn.net/loveliuzz/article/details/79080194VGGNet是牛津大学计算机视觉组(Visual Geometry Group)和Google DeepMind公司的研究员一起研发的深度卷积神经网络。VGGNet探索了卷积神经网络的深度与其性能之间的关系,通过反复堆叠33的小型卷积核和22的最大池化层,VGGNet成功...转载 2019-06-20 11:38:11 · 207 阅读 · 0 评论 -
卷积神经网络架构
研究一门科学,就要先溯本求原,学习它的发展历史,然后再了解其研究热点。name介绍时间论文LeNet第一个成功应用于mnist数据集的卷积神经网络1988Gradient-Based Learning Applied to Document RecognitionAlexNet提出ReLU、Dropout、最大池化、LRN、GPU加速、数据增强2012I...原创 2019-04-15 12:08:13 · 182 阅读 · 0 评论 -
学习《TensorFlow实战Google深度学习框架》(十)Inception-v3模型
6.4.2 Inception-v3模型原创 2019-03-26 11:29:31 · 1569 阅读 · 0 评论 -
学习《TensorFlow实战Google深度学习框架》(九)LeNet-5模型
文章目录6.4 经典卷积网络模型6.4.4 LeNet-5模型LeNet-5模型的架构6.4 经典卷积网络模型6.4.4 LeNet-5模型LeNet-5模型是Yann LeCun教授于1998年在论文Gradient-based learning applied to document recognition中提出的,它是第一个成功应用于数字识别问题的卷积神经网络。在MNIST数据集上,L...原创 2019-03-23 20:35:38 · 523 阅读 · 0 评论 -
轻量化神经网络架构
转自:https://www.jiqizhixin.com/articles/2018-01-08-6本文就近年提出的四个轻量化模型进行学习和对比,四个模型分别是:SqueezeNet、MobileNet、ShuffleNet、Xception。目录一、引言 二、轻量化模型 2.1 SqueezeNet 2.2 Mobi...转载 2019-06-21 11:09:41 · 3521 阅读 · 1 评论 -
综述论文:当前深度神经网络模型压缩和加速方法速览
来源:https://www.jiqizhixin.com/articles/2017-10-29本文全面概述了深度神经网络的压缩方法,主要可分为参数修剪与共享、低秩分解、迁移/压缩卷积滤波器和知识精炼,本论文对每一类方法的性能、相关应用、优势和缺陷等进行独到的分析。机器之心简要介绍了该论文,更详细的内容请查看原论文。文章目录介绍参数修剪和共享A. 量化和二进制化B. 剪枝和共享C. 设计...转载 2019-06-05 10:11:44 · 699 阅读 · 0 评论 -
目标检测论文库
转自:https://handong1587.github.io/deep_learning/2015/10/09/object-detection.html Object Detection Published: 09 Oct 2015 Category: de...转载 2019-06-20 14:24:43 · 2018 阅读 · 0 评论 -
Object detection at 200 Frames Per Second
快速检测算法原创 2019-06-04 22:37:38 · 336 阅读 · 0 评论 -
YOLO系列改进
来源详解YOLO v1BACKBONEGoogleNet缺陷输入图像必须是固定尺寸输出层是全连接层每个网格只输出一个类别训练依赖于物体标注,泛化能力差。IoU是通过,分类结果对应训练集的bb,以及预测的bb做运算。小目标鲁棒性差。下采样层多,物体特征不够精细YOLO v2BACKBONEDarknet-19改进Batch Nor...原创 2019-06-04 19:44:59 · 2853 阅读 · 0 评论 -
YOLO系列详解
来源:目标检测—YOLO v1,v2,v3文章目录YOLO v1YOLO的核心思想YOLO的实现方法YOLO的实现细节YOLO的缺点YOLO9000 YOLOv2摘要简介BETTERFasterStronger总结YOLO v3改进之处多尺度预测YOLO v.s Faster R-CNNYOLO v1这是继RCNN,fast-RCNN和faster-RCNN之后,rbg(RossGirshi...转载 2019-06-04 16:42:30 · 11178 阅读 · 0 评论 -
目标检测模型的性能评估--MAP(Mean Average Precision)
转自:目标检测模型的性能评估–MAP(Mean Average Precision)目标检测模型中性能评估的几个重要参数有精确度,精确度和召回率。本文中我们将讨论一个常用的度量指标:均值平均精度,即MAP。在二元分类中,精确度和召回率是一个简单直观的统计量,但是在目标检测中有所不同的是及时我们的物体检测器在图像中检测到物体,如果我们仍无法找到它所在的图像中的哪个位置也是无用的。由于我们需要预测...转载 2019-06-04 15:25:27 · 985 阅读 · 0 评论 -
SPP-Net翻译理解
SPP-Net参考链接:https://blog.csdn.net/u011534057/article/details/51219959TitleSpatial Pyramid Pooling in Deep ConvolutionalNetworks for Visual RecognitionLinkhttps://arxiv.org/pdf/1406.4729.pdfAbstr...翻译 2019-05-30 10:00:15 · 494 阅读 · 0 评论 -
基于立体R-CNN的自主驾驶3D目标检测方法
基于立体R-CNN的自主驾驶3D目标检测方法参考链接:https://blog.csdn.net/hitzijiyingcai/article/details/88537274TitleStereo R-CNN based 3D Object Detection for Autonomous DrivingLinkhttps://arxiv.org/abs/1902.09738Abst...翻译 2019-05-30 09:57:41 · 2206 阅读 · 0 评论 -
目标检测算法
name介绍时间论文链接R-CNN选取2000个候选区域缩放成同一尺寸2014Rich feature hierarchies for accurate oject detection and semantic segmentationSPP Net空间金字塔池化,避免缩放失真问题2015Spatial Pyramid Pooling in Deep Co...原创 2019-04-15 12:39:24 · 153 阅读 · 0 评论 -
支持向量机(SVM)
文章目录间隔和支持向量线性可分超平面支持向量SVM的最优化问题对偶问题求解最优化问题理解对偶问题什么是对偶问题KKT约束条件求解SVM优化问题软间隔软间隔的提出软间隔的SVM最优化问题核函数非线性SVM核函数求解非线性SVM常用的核函数线性核函数多项式核函数RBF核(Radial Basis Function Kernel)附录SMO算法拉格朗日对偶问题SUP、INFKKT间隔函数间隔几何间隔几何...原创 2019-06-05 16:48:50 · 295 阅读 · 0 评论 -
主成分分析(PCA)详解
来源:https://blog.csdn.net/Mbx8X9u/article/details/78613444前言主成分分析(Principal components analysis,以下简称PCA)是最重要的降维方法之一。在数据压缩消除冗余和数据噪音消除等领域都有广泛的应用。一般我们提到降维最容易想到的算法就是PCA,下面我们就对PCA的原理做一个总结。PCA基本思想PCA,主...转载 2019-05-30 15:36:09 · 3114 阅读 · 1 评论 -
线性判别分析(LDA)原理详解
来源:https://blog.csdn.net/mbx8x9u/article/details/78739908在学习LDA之前,有必要将其自然语言处理领域的LDA区别开来。在自然语言处理领域, LDA是隐含狄利克雷分布(Latent Dirichlet Allocation,简称LDA),是一种处理文档的主题模型。本文只讨论线性判别分析,因此后面所有的LDA均指线性判别分析。LDA思想...转载 2019-05-30 15:00:25 · 1997 阅读 · 0 评论 -
机器学习常见的损失函数、代价函数
**损失函数(Loss Function):**定义在单个样本上的,指一个样本的误差**代价函数(Cost Function):**定义在整个训练集上,是所有样本误差的平均,也就是所有损失函数值的平均**目标函数(Object Function):**指最终需要优化的函数,一般来说是经验风险+结构风险(代价函数+正则化项)。损失函数分类问题0-1损失函数预测正确时,损失函数值为0...原创 2019-05-27 21:34:13 · 598 阅读 · 0 评论 -
简单介绍梯度下降
来源:哔哩哔哩UP主莫烦Python的神经网络 : 梯度下降 (Gradient Descent in Neural Nets)为了方便观看,取一个容易看懂的代价函数蓝色点的斜率,就是该点的梯度。根据梯度与学习率,执行梯度下降操作如果遇到非凸函数,就会有很多局部最优解,很难一次性找到全局最优解在优化函数是非凸函数的情况下,就需要确定优化函数的上界函数(需要是凸函数),然后对这个...转载 2019-05-29 11:17:18 · 216 阅读 · 0 评论 -
Attention机制【图像】
转自:https://blog.csdn.net/weixin_41923961/article/details/81516589文章目录1. 什么是Attention机制?2. Attention机制应用在了哪些地方?2.1 方式一:学习权重分布2.2 方式二:任务聚焦/解耦3.感想4参考资料1. 什么是Attention机制?其实我没有找到attention的具体定义,但在计算机视觉...转载 2019-06-20 16:05:25 · 1436 阅读 · 3 评论 -
Batch Normalization
Batch Normalization参考:https://blog.csdn.net/leviopku/article/details/83109422https://www.cnblogs.com/skyfsm/p/8453498.htmlTitleBatch Normalization: Accelerating Deep Network Training by Reducing ...原创 2019-06-11 21:42:33 · 144 阅读 · 0 评论 -
卷积的三种模式:full, same, valid
作者:木盏原文:https://blog.csdn.net/leviopku/article/details/80327478通常用外部api进行卷积的时候,会面临mode选择。本文清晰展示三种模式的不同之处,其实这三种不同模式是对卷积核移动范围的不同限制。设 image的大小是7x7,filter的大小是3x31,full mode橙色部分为image, 蓝色部分为filter。...转载 2019-06-11 22:05:27 · 1342 阅读 · 0 评论 -
tensorflow中的dataset
先记录一下读tfrecord的方式def parser(record, shape=[224, 224, 1]): features = tf.parse_single_example(record, features={ 'label': tf.FixedLenFeature([], tf.int64), 'img': tf.FixedLenFeatur...原创 2019-06-28 10:18:50 · 844 阅读 · 0 评论 -
softmax_cross_entropy、binary_cross_entropy、sigmoid_cross_entropy
转自:损失函数softmax_cross_entropy、binary_cross_entropy、sigmoid_cross_entropy之间的区别与联系cross_entropy-----交叉熵是深度学习中常用的一个概念,一般用来求目标与预测值之间的差距。在介绍softmax_cross_entropy,binary_cross_entropy、sigmoid_cross_entropy...转载 2019-06-29 10:56:39 · 1397 阅读 · 0 评论 -
数据增强方法及代码
文章目录参考链接摘要什么是数据增强空间几何变换类翻转(Flip)裁剪(crop)旋转(rotate)缩放变形(scale)平移变换(shift)颜色变换类噪声变换类其他图像标准化遮挡实例AlexNetYOLO参考链接【技术综述】一文道尽深度学习中的数据增强方法(上) - 简书https://www.jianshu.com/p/99450dbdadcf【技术综述】一文道尽深度学习中的数据增强...原创 2019-07-06 16:27:57 · 20552 阅读 · 10 评论 -
AlexNet
AlexNetAlexNet参考链接LRN参考链接TitleImageNet Classification with Deep Convolutional Neural NetworksLinkhttp://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks....原创 2019-06-05 20:45:42 · 149 阅读 · 0 评论