![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
TensorFlow实战Google深度学习框架.pdf
文章平均质量分 79
wfx18765903641
这个作者很懒,什么都没留下…
展开
-
4.1深度学习与深层神经网络
本章介绍如何设计和优化神经网络 4.1介绍深度学习与深层神经网络的概念 4.2如何设定神经网络的优化目标 4.3更加详细的介绍神经网络的反向传播算法 4.4介绍在神经网络优化中经常遇到的几个问题 4.1深度学习与深层神经网络 维基百科对深度学习的定义:一类通过多层非线性变换对高复杂性数学建模算法的合集 深层神经网络是实现"多层非线性变换"最常用的一种方法,所以深度学习≈深层神经网络 ...转载 2018-12-12 20:13:30 · 150 阅读 · 0 评论 -
6.2卷积神经网络简介
前面的章节介绍的神经网络每两层之间的所有结点都是有边相连的 这种网络结构称为全连接层网络结构 全连接神经网络与卷积神经网络的结构对比图: 对于全连接神经网络,每相邻两层之间的节点都有边相连 于是一会会将每一层全连接层中的节点组成一列,这样方便显示连接结构 而对于卷积神经网网络,相连两层之间只有部分节点相连 为展示每一层神经元的维度,一般会将每一层卷积层的节点组织成一个三维矩阵 问...转载 2018-12-28 21:52:22 · 208 阅读 · 0 评论 -
6.1图像识别与卷积神经网络
6.1介绍图像识别领域解决的问题以及图像识别领域中经典的数据集 6.2介绍卷积神经网络的主题思想和整体架构 6.3详细讲解卷积层和池化层的网络结构 6.4通过两个经典的卷积神经网络模型来介绍如何设计卷积神经网络的架构以及 如何设置每一层神经网络的配置 6.5介绍如何通过tensorflow实现卷积神经网络的迁移学习 6.1图像识别问题简介及经典数据集 没啥东西,主要介绍了几个数据集 ...转载 2018-12-28 21:10:58 · 169 阅读 · 0 评论 -
3.4TensorFlow实现神经网络
3.4.1通过TensorFlow游乐场来简单介绍神经网络的主要功能及计算流程 3.4.2介绍神经网络的前向传播算法,并给出使用TensorFlow的代码实现 3.4.3如何通过TensorFlow中的变量来表达神经网络的参数 3.4.4介绍神经网络反向传播算法原理及TensorFlow对反向传播算法的支持 3.4.5给出一个完整的TensorFlow程序在随机的数据上训练一个简单的神经网...转载 2018-12-09 21:50:28 · 196 阅读 · 0 评论 -
3.3TensorFlow运行模型--会话
3.1和3.2介绍了TensorFlow是如何组织数据和运算的. 本节介绍如何使用TensorFlow中的会话(session)来执行定义好的运算 会话拥有并管理TensorFlow程序运行时的所有资源 当所有计算完成后需要关闭会话来帮助系统回收资源,否则可能资源泄露 TensorFlow中使用会话的模式有两种: (1)需要明确调用会话生成函数和会话关闭函数,流程如下: 使用这种模...转载 2018-12-09 12:44:01 · 223 阅读 · 0 评论 -
3.2TensorFlow数据模型--张量
张量是TensorFlow管理数据的形式 3.2.1张量的概念 TensorFlow中的Tensor(张量) 在TensorFlow程序中所有的数据都是通过张量的形式来表示 从功能的角度:张量可以简单理解为多维数组 零阶张量表示标量,也就是一个数; 一阶张量为向量,也就是一个一维数组 第n阶张量理解为一个n维数组 but,张量在TensorFlow 中的实现并不是直接采用数组的形式...转载 2018-12-09 12:13:14 · 267 阅读 · 0 评论 -
3.1TensorFlow计算模型--计算图
TensorFlow中所有的计算都会被转化为计算图上的节点 3.1.1计算图的概念 TensorFlow = Tensor(张量:理解为多维数组) + Flow(流) Tensor表明数据结构 Flow体现计算模型,表达张量之间通过计算相互转化的过程 3.1.2计算图的使用 TensorFlow程序一般分为两个阶段:1.定义计算 2.执行计算 定义计算的样例: import...转载 2018-12-09 11:26:29 · 148 阅读 · 0 评论 -
4.4神经网络进一步优化
4.4.1学习率的设置 学习率太大了不好,学习率太小了也不好 TensorFlow提供了一种更加灵活的学习率设置方法--指数衰减法 前期较大的学习率来快速得到一个比较优的解 后期随着迭代次数的继续逐步减小学习率,使得模型在训练后期更加稳定. 4.4.2过拟合问题 所谓过拟合,指的是当一个模型过为复杂之后,它可以很好地"记忆"每一个训练数据中 随机噪音的部分而忘了要去"学习"训练数...转载 2018-12-13 22:13:55 · 142 阅读 · 0 评论 -
4.3神经网络优化算法
本节将更加具体的介绍如何通过反向传播算法和梯度下降算法调整神经网络中参数的取值 梯度下降算法主要用于优化单个参数的取值 反向传播算法给出了一个高效的方式在所有参数上使用梯度下降算法,从而使神经网络模型 在训练数据上的损失函数尽可能小 反向传播算法数训练神经网络的核心算法,他可以根据定义好的损失函数优化参数的取值 神经网络模型中参数的优化过程直接决定了模型的质量 图4-11中x轴表示...转载 2018-12-13 20:50:40 · 266 阅读 · 0 评论 -
4.2损失函数的定义
本节将具体介绍如何刻画不同神经网络模型的效果 神经网络模型的效果以及优化的目标是通过损失函数来定义的 4.2.1讲解适用于分类问题和回归问题的经典损失函数 4.2.2介绍如何根据具体问题定义损失函数 4.2.1经典损失函数 分类问题和回归问题是监督学习的两大种类 在3.4.5小节中,已经通过TensorFlow实现过交叉熵,其代码如下: 其中y_代表正确结果,y代表预测结果. ...转载 2018-12-13 20:07:58 · 1026 阅读 · 0 评论 -
6.3卷积神经网络常用结构
6.3.1卷积层 本节将详细介绍卷积层的结构以及其前向传播的算法 图6-8显示了卷积层神经网络结构中重要的部分,这个部分称为过滤器或者内核转载 2018-12-28 22:16:27 · 199 阅读 · 0 评论