深度学习
文章平均质量分 60
ncst
这个作者很懒,什么都没留下…
展开
-
TensorFlow 卷积层
TensorFlow 卷积层让我们看下如何在 TensorFlow 里面实现 CNN。TensorFlow 提供了 tf.nn.conv2d() 和 tf.nn.bias_add() 函数来创建你自己的卷积层。# Output depthk_output = 64# Image Propertiesimage_wi原创 2017-07-10 21:21:11 · 1580 阅读 · 0 评论 -
TensorFlow Neural Network Lab
TensorFlow Neural Network LabTensorFlow Lab我们为你准备了一个 Jupyter notebook,指引你在 TensorFlow 里创建一个单层的神经网络。你将实现数据归一化,用 TensorFlow 来创建一个网络并训练它。获取 notebooknoteboo转载 2017-07-05 22:31:53 · 618 阅读 · 0 评论 -
TensorFlow ReLUs
TensorFlow ReLUsTensorFlow 提供了 ReLU 函数 tf.nn.relu(),如下所示:# Hidden Layer with ReLU activation function# 隐藏层用 ReLU 作为激活函数hidden_layer = tf.add(tf.matmul(features, hidden_weights), hidden_biases)原创 2017-07-06 20:09:42 · 493 阅读 · 0 评论 -
TensorFlow 中的深度神经网络
TensorFlow 中的深度神经网络你已经学过了如何用 TensorFlow 构建一个逻辑分类器。现在你会学到如何用逻辑分类器来构建一个深度神经网络。详细指导接下来我们看看如何用 TensorFlow 来构建一个分类器来对 MNIST 数字进行分类。如果你要在自己电脑上跑这个代码,文件在这儿。你可以在Aymeric Damien 的 GitHub repository原创 2017-07-06 20:31:04 · 2417 阅读 · 0 评论 -
保存和读取 TensorFlow 模型
保存和读取 TensorFlow 模型训练一个模型的时间很长。但是你一旦关闭了 TensorFlow session,你所有训练的权重和偏置项都丢失了。如果你计划在之后重新使用这个模型,你需要重新训练!幸运的是,TensorFlow 可以让你通过一个叫 tf.train.Saver 的类把你的进程保存下来。这个类可以把任何 tf.Variable存到你的文件系统。保存变量原创 2017-07-06 21:04:39 · 5201 阅读 · 1 评论 -
CNN中的filter
分解一张图片CNN 的第一步是把图片分成小块。我们通过选取一个给定宽度和高度的滤波器来实现这一步。滤波器会照在图片的小块 patch (图像区块)上。这些 patch 的大小与滤波器一样大。如之前视频所示,CNN用滤波器来把图片分割成更小的 patch,patch 的大小跟滤波器大小相同。原创 2017-07-09 18:15:22 · 24625 阅读 · 1 评论 -
CNN直观感受
直观感受让我们对卷积神经网络如何工作形成更好直观感受。我们先看下人怎样识别图片,然后再看 CNNs 如何用一个近似的方法来识别图片。比如说,我们想把下面这张图片识别为金毛巡回犬。一个需要被识别为金毛巡回犬的图片人类是怎么做的呢?原创 2017-07-09 17:13:01 · 875 阅读 · 1 评论 -
tensorFlow入门教程
TensorFlow入门教程之0: BigPicture&极速入门TensorFlow入门教程之1: 基本概念以及理解TensorFlow入门教程之2: 安装和使用TensorFlow入门教程之3: CNN卷积神经网络的基本定义理解TensorFlow入门教程之4: 实现一个自创的CNN卷积神经网络TensorFlow入门教程之5: TensorBo转载 2017-08-09 09:33:16 · 463 阅读 · 0 评论 -
tensorflow读取数据
在学习TensorFlow的过程中,有很多小伙伴反映读取数据这一块很难理解。确实这一块官方的教程比较简略,网上也找不到什么合适的学习材料。今天这篇文章就以图片的形式,用最简单的语言,为大家详细解释一下TensorFlow的数据读取机制,文章的最后还会给出实战代码以供参考。TensorFlow读取机制图解首先需要思考的一个问题是,什么是数据读取?以图像数据为例,读取数据的过程可以用下转载 2017-08-10 19:01:36 · 633 阅读 · 0 评论 -
神经网络的预训练
视觉问题引入深度神经网络后,针对端对端的训练和预测网络,可以看是特征的表达和任务的决策问题(分类,回归等)。当我们自己的训练数据量过小时,往往借助牛人已经预训练好的网络进行特征的提取,然后在后面加上自己特定任务的网络进行调优。目前,ILSVRC比赛(针对1000类的分类问题)所使用数据的训练集126万张图像,验证集5万张,测试集10万张(标注未公布),大家一般使用这个比赛的前几名的网络来搭建自己特转载 2017-08-17 22:42:50 · 8177 阅读 · 1 评论 -
tensorflow中的strides参数
更详细地讨论见 stackoverflow:Tensorflow Strides Argument卷积神经网络(CNN)在 TensorFlow 实现时涉及的 tf.nn.con2d(二维卷积)、tf.nn.max_pool(最大池化)、tf.nn.avg_pool(平均池化)等操作都有关于 strides(步长)的指定,因为无论是卷积操作还是各种类型的池化操作,都是某种形式的滑动窗口(s原创 2017-08-12 17:03:34 · 755 阅读 · 0 评论 -
深度学习Flappy Bird
Flappy Bird在此示例中,你将看到一个深度学习代理在玩 Flappy Bird!你可以自己训练该代理,但是现在我们先开始使用作者提供的预先训练好的网络。注意,下面的代理能够直接玩游戏,不用告诉它关于游戏结构或规则的任何信息。它会通过查看每次循环时的操作流程,自动发现游戏规则。我们将使用此 GitHub 代码库(作者:Yenchen Lin)原创 2017-08-14 23:34:11 · 3284 阅读 · 0 评论 -
deep learning(coursera) week1 Introduction to deep learning
Introduction to deep learning红的色是答案1. What does the analogy “AI is the new electricity” refer to?A. AI is powering personal devices in our homes and offices, similar to electricity.原创 2017-10-09 11:12:48 · 803 阅读 · 9 评论 -
Coursera Deep Learning 4 卷积神经网络 第一周习题
The basics of ConvNets1What do you think applying this filter to a grayscale image will do?Detect horizontal edgesDetect vertical edgesDetect 45 degree edgesDetect image contrast原创 2018-01-03 11:11:34 · 2986 阅读 · 2 评论 -
TensorFlow Mini-batching
TensorFlow Mini-batching要使用 mini-batching,你首先要把你的数据集分成 batches。不幸的是,有时候不可能把数据完全分割成相同数量的 batch。例如有 1000 个数据点,你想每个 batch 有 128 个数据。但是1000 无法被 128 整除。你得到的结果是 7 batch,每个128个数据点,一个 batch 有 104个数据点。原创 2017-07-05 21:59:36 · 824 阅读 · 0 评论 -
Mini-batching
Mini-batching在这一节,你将了解什么是 mini-batching,以及如何在 TensorFlow 里应用它。Mini-batching是一个一次训练数据集的一小部分,而不是整个训练集的技术。它可以是的内存较小,不能同时训练整个数据集的电脑也可以训练模型。Mini-batching 从运算角度来说是低效的,因为你不能在所有样本中计算 loss。但是这点小代价也原创 2017-07-05 21:43:53 · 733 阅读 · 1 评论 -
TensorFlow 最大池化
TensorFlow 最大池化由 Aphex34 (自己的作品) CC BY-SA 4.0, 通过 Wikimedia Commons 共享这是一个最大池化的例子max pooling 用了 2x2 的滤波器 stride 为 2。四个 2原创 2017-07-10 22:25:48 · 4574 阅读 · 0 评论 -
对于池化的一些看法
池化的作用:减小输出大小 和 降低过拟合。降低过拟合是减小输出大小的结果,它同样也减少了后续层中的参数的数量。近期,池化层并不是很受青睐。部分原因是:现在的数据集又大又复杂,我们更关心欠拟合问题。Dropout 是一个更好的正则化方法。池化导致信息损失。想想最大池化的例子,n 个数字中我们只保留最大的,把余下的 n原创 2017-07-11 14:29:00 · 2297 阅读 · 0 评论 -
池化的作用
池化的作用:减小输出大小 和 降低过拟合。降低过拟合是减小输出大小的结果,它同样也减少了后续层中的参数的数量。近期,池化层并不是很受青睐。部分原因是:现在的数据集又大又复杂,我们更关心欠拟合问题。Dropout 是一个更好的正则化方法。池化导致信息损失。想想最大池化的例子,n 个数字中我们只保留最大的,把余下的 n原创 2017-07-11 14:29:18 · 13715 阅读 · 2 评论 -
池化的计算
设置H = height, W = width, D = depth输入维度是 4x4x5 (HxWxD)滤波器大小 2x2 (HxW)stride 的高和宽都是 2 (S)新的高和宽的公式是:new_height = (input_height - filter_height)/S + 1new_width = (input_width - filter原创 2017-07-11 14:29:37 · 20896 阅读 · 1 评论 -
TensorFlow 中的卷积网络(cnn)
TensorFlow 中的卷积网络是时候看一下 TensorFlow 中的卷积神经网络的例子了。网络的结构跟经典的 CNNs 结构一样,是卷积层,最大池化层和全链接层的混合。这里你看到的代码与你在 TensorFlow 深度神经网络的代码类似,我们按 CNN 重新组织了结构。如那一节一样,这里你将会学习如何分解一行一行的代码。你还可以下载代码自己运行。感谢原创 2017-07-11 19:08:32 · 2598 阅读 · 0 评论 -
cnn补充材料
补充材料有很多免费的资源可以让你对卷积神经网络有更深入的了解。在本课中,我们的目标是让你了解这个概念如何解决现实问题。你也有了能力来继续探索。我们强烈推荐你参考下列资源来强化你的理解以及了解更多概念。我们特别推荐的阅读材料如下:Andrej Karpathy's CS231n Stanford course on Convolutional Neural Netwo原创 2017-07-11 21:01:47 · 394 阅读 · 0 评论 -
TensorFlow开始
在这节课中,你将把你学到的神经网络的知识,借助TensorFlow ,一个 Google 开源的深度学习框架,应用在真实的数据集中。你将用 TensorFlow 来辨别 notMNIST 数据集。他是一个英文字母 A 到 J 的数据集,下面是一些示例。你的目标原创 2017-07-03 13:16:11 · 411 阅读 · 0 评论 -
分析tensorflow代码(Hello world)
Hello, Tensor World!让我们来分析一下你刚才跑的 Hello World 的代码。代码如下:import tensorflow as tf# Create TensorFlow object called hello_constanthello_constant = tf.constant('Hello World!')with tf.Session() a原创 2017-07-03 13:55:45 · 1819 阅读 · 0 评论 -
tensorflow的输入
输入在最后一部分中,你向 session 传入一个 tensor 并返回结果。如果你想用一个非常量 non-constant 该怎么办?这就是 tf.placeholder() 和 feed_dict 派上用场的时候了。这一节将向你讲解向 TensorFlow 传输数据的基本知识。tf.placeholder()很遗憾,你不能把数据赋值到 x 在把它传给 Tenso原创 2017-07-03 14:08:39 · 689 阅读 · 1 评论 -
TensorFlow 数学运算
TensorFlow 数学得到输入很棒,但是现在你需要把它用起来。你将用每个人都懂的常用的数学运算,加、减、乘、除来处理 tensor。(还有更多的运算,你可以看文档)。加法x = tf.add(5, 2) # 7从加法开始, tf.add() 完成的工作与你期望的一样。它把两个数字,两个 tensor,返回他们的和。减法和乘法这是减法和乘法的例原创 2017-07-03 16:46:53 · 1694 阅读 · 0 评论 -
tensorflow常用函数总结
在 tf.Session 里面进行运算。通过 tf.constant() 创建常量 tensor。用 tf.placeholder() 和 feed_dict 得到输入。应用 tf.add(), tf.subtract(), tf.multiply(), and tf.divide() 函数进行数学运算.学习如何用 tf.cast() 进行类型转换。原创 2017-07-03 16:49:15 · 1976 阅读 · 1 评论 -
TensorFlow 里的线性函数
TensorFlow 里的线性函数神经网络中最常见的运算,就是计算输入,权重和偏差的线性组合。回忆一下,我们可以把线性操作的输入写成:这里 W 是连接两层的权重矩阵。输出 y ,输入 x, 偏差 b 全部都是向量。原创 2017-07-03 18:44:45 · 943 阅读 · 0 评论 -
TensorFlow Softmax
TensorFlow SoftmaxThe softmax 函数可以把它的输入,通常被称为 logits 或者 logit scores,处理成 0 到 1 之间,并且能够把输出归一化到和为 1。这意味着 softmax 函数与分类的概率分布等价。它是一个网络预测多酚类问题的最佳输出激活函数。softmax原创 2017-07-03 19:20:10 · 724 阅读 · 0 评论 -
TensorFlow 中的交叉熵(Cross Entropy)
TensorFlow 中的交叉熵(Cross Entropy)与 softmax 一样,TensorFlow 也有一个函数可以方便地帮我们实现交叉熵。Cross entropy loss function 交叉熵损失函数让我们把你从视频当中原创 2017-07-04 18:07:08 · 1561 阅读 · 0 评论 -
深度学习-一些问题得总结
1. 常用的网络结构中,feature_size / kernel_size 的值过小,会导致BN的统计值不稳定,外加上ReLU对信息的一些破坏,很容易倒置kernel学不到任何的东西,发生退化。...原创 2018-06-15 08:12:52 · 530 阅读 · 0 评论