DL
文章平均质量分 77
努力努力再努力tq
耐心看,总会看懂的!
追求实现文献算法的快感,追求学会一个新算法的充实感。(from hjimce的专栏)
展开
-
深度学习网络 | Xception (含与mobilenet depthwise seperable conv比较)
论文:Xception: Deep Learning with Depthwise Separable Convolutions 论文链接:https://arxiv.org/abs/1610.02357--------------------------------------------------------------------------------------------------...转载 2018-07-11 10:37:43 · 1586 阅读 · 0 评论 -
多任务学习 | TensorFlow 一步一步构建一个多任务学习模型
介绍为什么是多任务学习?当你在思考新事物的时候,他们通常会利用他们以前的经验和获得的知识来加速现在的学习过程。当我们学习一门新语言的时候,尤其是相关的语言时,我们通常会使用我们一级学过的语言知识来加快这一门新语言的学习过程。这个过程也可以用另一种方式来理解 —— 学习一种新的语言可以帮助你更好的理解和说出自己的想法。我们的大脑会同时学习多种不同的任务,无论我们是想将英文翻译成中文,还是...转载 2018-09-13 16:45:08 · 5412 阅读 · 0 评论 -
深度学习网络 | inception网络再分析(含代码)
一、Inception网络(google公司)——GoogLeNet网络的综述获得高质量模型最保险的做法就是增加模型的深度(层数)或者是其宽度(层核或者神经元数),但是这里一般设计思路的情况下会出现如下的缺陷:1.参数太多,若训练数据集有限,容易过拟合;2.网络越大计算复杂度越大,难以应用;3.网络越深,梯度越往后穿越容易消失,难以优化模型。 解决上述两个缺点的根本方...转载 2018-08-20 19:03:41 · 5509 阅读 · 1 评论 -
细粒度识别 | 百度细粒度识别方案
近日,百度发布了用于花卉识别的移动端应用,这种基于全卷积注意力网络的细粒度识别方法在计算和准确度上都有非常强大的优势。在百度主任研发架构师陈凯和资深研发工程师胡翔宇的解释下,本文首先将介绍什么是细粒度识别,以及一般的细粒度识别方法,然后重点解析百度基于强化学习和全卷积注意力网络的细粒度识别模型。五一出游赏花,为女朋友解释解释细粒度识别也是极好的。 细粒度识别的概念其实非常...转载 2018-08-20 16:03:20 · 4972 阅读 · 0 评论 -
深度学习 | tensorflow 实现卷积原理,手写python实现卷积
从一个通道的图片进行卷积生成新的单通道图的过程很容易理解,对于多个通道卷积后生成多个通道的图理解起来有点抽象。本文以通俗易懂的方式讲述卷积,并辅以图片解释,能快速理解卷积的实现原理。最后手写python代码实现卷积过程,让Tensorflow卷积在我们面前不再是黑箱子!注意:本文只针对batch_size=1,padding='SAME',stride=[1,1,1,1]进...转载 2018-08-19 17:41:11 · 385 阅读 · 0 评论 -
参数估计 | MLE,MAP,朴素贝叶斯估计
最大似然估计(MLE):最大似然估计提供了一种给定观察数据来评估模型参数的方法,即:“模型已定,参数未知”。简单而言,假设我们要统计全国人口的身高,首先假设这个身高服从服从正态分布,但是该分布的均值与方差未知。我们没有人力与物力去统计全国每个人的身高,但是可以通过采样,获取部分人的身高,然后通过最大似然估计来获取上述假设中的正态分布的均值与方差。最大似然估计中采样需满足一个很重要的假设,就...转载 2018-08-17 01:06:10 · 1241 阅读 · 0 评论 -
梯度下降 | 全量,随机,mini-batch
1,批量梯度下降法(Batch Gradient Descent) :在更新参数时都使用所有的样本来进行更新。 优点:全局最优解,能保证每一次更新权值,都能降低损失函数;易于并行实现。 缺点:当样本数目很多时,训练过程会很慢。 2,随机梯度下降法(Stochastic Gradient Descent):在更新参数时都使用一个样本来进行更新。每一次跟新参数都用一个样本,更新很多次...转载 2018-08-17 00:51:32 · 536 阅读 · 0 评论 -
深度学习| 用global average pooling 代替最后的全连接层
最近在看关于cifar10 的分类的识别的文章在看all convolution network 中看到中用到一个global average pooling 下面就介绍一下global average pooling 这个概念出自于 network in network 主要是用来解决全连接的问题,其主要是是将最后一层的特征图进行整张图的一个均值池化,形成一个特征点,将这些...转载 2018-08-18 22:49:56 · 28572 阅读 · 4 评论 -
深度学习 | 全连接层原理
一.全连接层: 全连接层需要把输入拉成一个列项向量,如下图所示: 比如你的输入的feature map是2X2,那么就需要把这个feature map 拉成4X1的列向量,如果你的feature map 的channels是3,也就是你的输入是3X2X2,也就是相当于有了12个像素点,你就需要把feature map 拉成12X1的列向量,这时...转载 2018-08-18 22:42:02 · 17611 阅读 · 0 评论 -
深度学习 | |mask rcnn
参考:https://blog.csdn.net/xiamentingtao/article/details/78598511#commentsmask rcnn是何凯明基于以往的faster rcnn架构提出的新的卷积网络,一举完成了object instance segmentation. 该方法在有效地目标的同时完成了高质量的语义分割。 文章的主要思路就是把原有的Faster-RCNN进...转载 2018-08-09 00:23:18 · 1026 阅读 · 0 评论 -
深度学习|RPN网络解析
感谢转自:https://blog.csdn.net/jiongnima/article/details/79781792 1) 直接进行论文阅读:https://arxiv.org/abs/1506.014972) 由于Faster R-CNN先验知识很多,觉得论文阅读有困难的读者,不妨参考笔者的博客:实例分割模型Mask R-CNN详解:从R-CNN,Fast R-CNN,Fa...转载 2018-08-08 23:54:50 · 5491 阅读 · 0 评论 -
深度学习 | ROI pooling解析+代码 (解析2)
在笔者的上一篇博客中,解析了Faster R-CNN中的RPN代码,在本篇博客中,笔者详细地解析一下ROI-Pooling代码。为大家讲解2015年Fast R-CNN的核心贡献(ROI Pooling被Faster R-CNN沿用)ROI Pooling的实现原理。(笔者其实一年半之前就看过这个代码,只是当时没有写到博客上,感慨.jpg) 在代码解析正式开始之前,笔者声明几点:1. ...转载 2018-08-08 23:34:49 · 1340 阅读 · 1 评论 -
深度学习 | ROI pooling解析+代码 (解析1)
一篇外文博客https://deepsense.ai/region-of-interest-pooling-explained/ROI Pooling的意义ROIs Pooling顾名思义,是Pooling层的一种,而且是针对RoIs的Pooling,他的特点是输入特征图尺寸不固定,但是输出特征图尺寸固定;图1 Fast RCNN整体结构往往经过rpn后输出的不止一个矩形框,所以这...转载 2018-08-08 23:25:25 · 1844 阅读 · 0 评论 -
深度学习| Batch Normalization
前言Batch Normalization是由google提出的一种训练优化方法。参考论文:Batch Normalization Accelerating Deep Network Training by Reducing Internal Covariate Shift 个人觉得BN层的作用是加快网络学习速率,论文中提及其它的优点都是这个优点的副产品。 网上对BN解释详细的不多,大多从...转载 2018-08-05 19:50:18 · 1060 阅读 · 0 评论 -
Batch Normalization详解
Batch Normalization作为最近一年来DL的重要成果,已经广泛被证明其有效性和重要性。虽然有些细节处理还解释不清其理论原因,但是实践证明好用才是真的好,别忘了DL从Hinton对深层网络做Pre-Train开始就是一个经验领先于理论分析的偏经验的一门学问。本文是对论文《Batch Normalization: Accelerating Deep Network Train...转载 2018-07-18 16:31:10 · 439 阅读 · 0 评论 -
Depthwise Separable convlution | 举例详细解释
下图就是depthwise separable convolution的示意图,其实就是将传统的卷积操作分成两步,假设原来是3*3的卷积,那么depthwise separable convolution就是先用M个3*3卷积核一对一卷积输入的M个feature map,不求和,生成M个结果;然后用N个1*1的卷积核正常卷积前面生成的M个结果,求和,最后生成N个结果。因此文章中将dep...转载 2018-07-11 12:02:50 · 16475 阅读 · 9 评论