深度学习
文章平均质量分 95
ZLuby
慢慢来比较快
展开
-
AlexNet论文总结与代码实现
AlexNet包含6千万个参数和65万个神经元,包含了5个卷积层,其中有几层后面跟着最大池化(max-pooling)层,以及3个全连接层,最后还有一个1000路的softmax层。为了加快训练速度,AlexNet使用了Relu非线性激活函数以及一种高效的基于GPU的卷积运算方法。为了减少全连接层的过拟合,AlexNet采用了最新的正则化方法“dropout”,该方法被证明非常有效。总结一下Ale...原创 2018-05-23 12:01:38 · 7178 阅读 · 1 评论 -
对L1正则化和L2正则化的理解
一、 奥卡姆剃刀(Occam's razor)原理: 在所有可能选择的模型中,我们应选择能够很好的解释数据,并且十分简单的模型。从贝叶斯的角度来看,正则项对应于模型的先验概率。可以假设复杂模型有较小的先验概率,简单模型有较大的先验概率。 二、正则化项 2.1、什么是正则化? 正则化是结构风险最小化策略的实现,在经验风险上加一个正则项或罚项,正则...转载 2018-08-23 19:46:49 · 365 阅读 · 0 评论 -
深度学习 Batch Normalization 学习笔记
Batch Normalization 学习笔记原文地址:http://blog.csdn.net/hjimce/article/details/50866313作者:hjimce一、背景意义本篇博文主要讲解2015年深度学习领域,非常值得学习的一篇文献:《Batch Normalization: Accelerating Deep Network Training by Red...转载 2018-08-20 20:44:01 · 198 阅读 · 0 评论 -
dropout理解
1.dropout解决的问题深度神经网络的训练是一件非常困难的事,涉及到很多因素,比如损失函数的非凸性导致的局部最优值、计算过程中的数值稳定性、训练过程中的过拟合等。过拟合是指模型训练到一定程度后,在测试集上得到的测试误差远大于在训练集上得到的误差。导致过拟合的主要原因有: 1. 训练数据集太小 2. 模型太复杂 3. 过度训练2.dropoutdropout是指在训练一...原创 2018-08-23 16:31:41 · 3367 阅读 · 3 评论 -
卷积神经网络特征提取并放入SVM
CNN特征是由INCEPTION_V3模型得到的bottleneck(即卷积神经网络倒数第二层学到的特征),是一系列2048维特征向量,将一系列特征向量作为输入,放入SVM中进行分类(用的是matlab版libsvm),实验结果如下数据集 plant_photos12(12种,每种50~100张图像)训练集—验证集 不降维(%) PCA降维(%) PCA+LDA降维(%) 80-20 40...原创 2018-06-04 17:06:54 · 21455 阅读 · 49 评论 -
10 大深度学习架构:计算机视觉优秀从业者必备(附代码实现)
近日,Faizan Shaikh 在 Analytics Vidhya 发表了一篇题为《10 Advanced Deep Learning Architectures Data Scientists Should Know!》的文章,总结了计算机视觉领域已经成效卓著的 10 个深度学习架构,并附上了每篇论文的地址链接和代码实现。机器之心对该文进行了编译,原文链接请见文末。时刻跟上深度学习领域的最新...转载 2018-06-08 10:24:44 · 268 阅读 · 0 评论 -
VGGNet笔记
转自:https://blog.csdn.net/muyiyushan/article/details/628952021. 简介VGGNet由牛津大学的视觉几何组(Visual Geometry Group)提出,是ILSVRC-2014中定位任务第一名和分类任务第二名。其突出贡献在于证明使用很小的卷积(3*3),增加网络深度可以有效提升模型的效果,而且VGGNet对其他数据集具有很好的泛化能力...转载 2018-06-12 13:02:32 · 319 阅读 · 0 评论 -
tensorflow微调vgg16 程序代码汇总
一、【深度学习图像识别课程】tensorflow迁移学习系列:VGG16花朵分类转自:https://blog.csdn.net/weixin_41770169/article/details/80330581花朵数据库介绍种类5种:daisy雏菊,dandelion蒲公英,rose玫瑰,sunflower向日葵,tulips郁金香数量: 633, 898, ...转载 2018-06-14 16:47:38 · 8409 阅读 · 1 评论 -
以VGG为例,分析深度网络的计算量和参数量
本文原载于https://imlogm.github.io,转载请注明出处~摘要:我第一次读到ResNet时,完全不敢相信152层的残差网络,竟然在时间复杂度(计算量)上和16层的VGG是一样大的。当然,对于初学者而言,直接分析ResNet的时间复杂度是有点难度的。这篇文章我将以VGG为例,介绍深度网络的复杂度计算方法。掌握这些计算方法后,再去看Inception、ResNet、MobileNet...转载 2018-06-15 12:45:18 · 10435 阅读 · 1 评论 -
jupyter-notebook释放显存
在用jupyter notebook运行程序时出现如下bug:ResourceExhaustedError: OOM when allocating tensor with shape[4096,4096] and type float on /job:localhost/replica:0/task:0/device:GPU:0 by allocator GPU_0_bfc [[Node...原创 2018-09-17 22:38:17 · 11800 阅读 · 0 评论