![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习模型
文章平均质量分 92
wangli0519
这个作者很懒,什么都没留下…
展开
-
搭积木般构建深度学习网络——Xception完整代码解析
在了解什么是Xception以前,我们首先要了解Inception。Inception结构,由Szegedy等在2014年引入,被称为GoogLeNet(Inception V1),之后被优化为Inception V2, Inception V3以及最新的Inception-ResNet。Inception自身受早期的网络-网络结构启发。自从首次推出,Inception无论是对于ImageNet的原创 2017-06-28 20:45:44 · 18026 阅读 · 5 评论 -
优化器及自动化调超参数
调节超参数是深度学习中成本最高的部分之一。 当前最先进的优化器,例如Adagrad, RMSProp 和 Adam,通过为每个变量灵活地调整学习速率来简化工作,并取得了良好的效果。Adam是一种有效的随机优化方法,只需要一阶梯度和少量内存。该方法通过估计梯度的第一和第二力矩来计算不同参数的适应性学习速率。Adam的名字来源于适应性力矩估计。该方法在设计上结合了两种流行方法的优势,包括在稀疏翻译 2017-07-01 16:54:58 · 3631 阅读 · 0 评论 -
Xception —— 深度可分卷积
卷积神经网络中的Inception模块是在普通卷积和深度可分卷积操作(深度卷积后逐点卷积)之间的一种中间步骤的解释。基于此,深度可分卷积可以理解为最大数量tower的Inception模块。受Inception启发,该观察引发我们提出一种新的深度卷积神经网络结构,用深度可分卷积替代Inception模块。我们展现这种结构,昵称为Xception在ImageNet数据集上表现略优于Inception翻译 2017-06-10 19:54:53 · 20943 阅读 · 1 评论 -
VGG —— 更深度卷积网络
这里我们主要考察增加卷积网络的深度对于提高大规模图像识别设置准确度的作用。我们首先描述我们使用的卷积网络的一般结构,然后介绍在评估中使用的特定设置细节,最后讨论并比较我们的设计与此前一些模型的区别。结构在训练中,卷积网络的输入是固定大小的224×224RGB图像。我们唯一做的预处理是在训练集中计算出平均RGB值,并在每个像素上减去它。图像经过堆叠的卷积层处理,我们使用具有非常小接收域的过滤翻译 2017-06-11 19:56:07 · 2497 阅读 · 0 评论 -
Inception —— 计算机视觉架构再思考
自从2012年Krizhevsky等赢了ImageNet竞赛后,他们的AlexNet被成功应用在大量的计算机视觉任务,例如物体检测,分割,人体姿势估计,视频分类,物体追踪和图像超分辨。这些成功激发了对于找到更好执行卷积神经网络的的研究。从2014年起,使用更深、更宽的网络大幅提高了网络结构的质量。VGGNet和GoogleNet在2014ILSVRC分类大赛中取得了相似的突出成绩。一个有意思的翻译 2017-06-13 11:05:16 · 3949 阅读 · 0 评论 -
ResNet —— 深度残差网
深度卷积神经网络为图像识别带来了一系列突破。深度网络自然的融合了低/中/高层特征并以端到端多层方式实行分类,且特征的层可通过堆叠层的数量(深度)来丰富。近期证据显示,网络的深度至关重要,并且ImageNet数据集中领先的模型都使用非常深的模型,从16层到30层。由此带来一个问题,学习更好的网络是否只是简单的堆叠更多的层?回答这个问题一个困难是臭名昭著的梯度消失/爆炸问题。但是这个问题很大程度上翻译 2017-06-12 20:27:26 · 4523 阅读 · 0 评论 -
搭积木般构建深度学习网络 —— ResNet50完整代码解析
这里我们来看一下Keras中ResNet50的代码。关于ResNet的理解可以参阅深度残差网 点击打开链接首先我们需要载入将会使用到的库文件import numpy as npimport warningsfrom keras.layers import Inputfrom keras import layersfrom keras.layers import Dense原创 2017-06-26 21:30:33 · 13253 阅读 · 1 评论 -
循环神经网络中Dropout的应用
循环神经网络(RNNs)是基于序列的模型,对自然语言理解、语言生成、视频处理和其他许多任务至关重要。模型的输入是一个符号序列,在每个时间点一个简单的神经网络(RNN单元)应用于一个符号,以及此前时间点的网络输出。RNNs是强大的模型,在许多任务中表现出色,但会快速过拟合。RNN模型中缺少正则化使他难以处理小规模数据,为避免这种情况研究者经常使用提早停止,或者小规模的或未充分定义的模型。Drop翻译 2017-07-16 17:08:23 · 7233 阅读 · 2 评论