深度学习
最强玩者
这个作者很懒,什么都没留下…
展开
-
tf.nn.dropout介绍
tf.nn.dropout中参数 keep_prob :每一个元素被保存下的概率。tf.layer.dropout中参数 rate :每一个元素丢弃的概率。在tf.nn.dropout中:def dropout(x, keep_prob, noise_shape=None, seed=None, name=None)x:上一层传下载的tensor。(一般用于全连接层后面)...原创 2019-07-10 09:55:30 · 1688 阅读 · 1 评论 -
Failed to create session
遇到这个问题,应该是Windows的系统,解决办法是,打开英伟达控制面板,将显卡的参数恢复至默认设置,再运行程序即可。原创 2018-12-22 18:19:22 · 7305 阅读 · 0 评论 -
批量读取文件夹下的图片并保存在一个四维数组中
在深度学习开发中,我们在网上找的现成的数据集,都是已经处理好了的,我们直接使用即可。但是如果我们想用自己的图片训练网络,会发现编译器总是报读入图片的shape大小不一致的情况。在用来训练的图片数组中,一般都是四维的,比如(600,299,299,3),600表示在这个数组中一共有600张图片,299则是图片的宽高,3表示图片是彩色的。现在,我们来把自己文件夹下的所有的图片都读到一个数组中,并拥...原创 2018-11-15 14:02:45 · 4642 阅读 · 9 评论 -
一文让你彻底了解卷积神经网络
卷积神经网络(Convolutional Neural Network,CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。 它包括卷积层(convolutional layer)和池化层(pooling layer)。对比:卷积神经网络、全连接神经网络左图:全连接神经网络(平面),组成:输入层、激活函数、全连接层右图:卷积神经...转载 2018-08-03 09:27:11 · 209265 阅读 · 72 评论 -
对CNN中pooling层(池化层)的理解
自己在学习CNN过程中,查找网上一些资料,对pooling层有了一些理解,记录下来,也供大家参考:pooling层(池化层)的输入一般来源于上一个卷积层,主要有以下几个作用:1.保留主要的特征,同时减少下一层的参数和计算量,防止过拟合2. 保持某种不变性,包括translation(平移),rotation(旋转),scale(尺度),常用的有mean-pooling和max-pool...转载 2018-08-02 21:24:49 · 9787 阅读 · 1 评论 -
Python中flatten( ),matrix.A用法
flatten()函数用法flatten是numpy.ndarray.flatten的一个函数,即返回一个折叠成一维的数组。但是该函数只能适用于numpy对象,即array或者mat,普通的list列表是不行的。 其官方文档是这样描述的Parameters:ndarray.flatten(order='C')Return a copy of the array collapsed...转载 2018-08-01 21:03:56 · 2787 阅读 · 0 评论 -
分析 Dropout
摘要: 本文详细介绍了深度学习中dropout技巧的思想,分析了Dropout以及Inverted Dropout两个版本,另外将单个神经元与伯努利随机变量相联系让人耳目一新。过拟合是深度神经网(DNN)中的一个常见问题:模型只学会在训练集上分类,这些年提出的许多过拟合问题的解决方案;其中dropout具有简单性并取得良好的结果:Dropout上图为Dropout的可视化表示,左边...转载 2018-08-01 16:43:05 · 657 阅读 · 0 评论