tensorflow
文章平均质量分 95
雪糕遇上夏天
这个作者很懒,什么都没留下…
展开
-
tf2.0先试试图片(七)——CNN卷积神经网络
之前已经介绍了TenforFlow的基本操作和神经网络,主要是全联接网络的一些概念:tf2.0学习(七)——卷积神经网络7.0 简介7.1 全连接网络的问题7.1.1 局部相关性7.1.2 权值共享7.1.3 卷积运算7.2 卷积神经网络7.2.1 单通道输入和单卷积核7.2.2 多通道输入和单卷积核7.2.3 多通道输入和多卷积核7.2.4 步长7.2.5 填充7.3 卷基层实现7.3.1 自定义权值7.3.2 卷积层类7.4 LeNet-5 实战7.5 表示学习7.6 梯度传播7.7 池化层7.8 B原创 2021-08-11 22:38:54 · 267 阅读 · 0 评论 -
tf2.0学习(六)——过拟合
前边介绍了TensorFlow的基本操作和Keras的高层接口:tf2.0学习(一)——基础知识tf2.0学习(二)——进阶知识tf2.0学习(三)——神经网络tf2.0学习(四)——反向传播算法tf2.0学习(五)——Keras高层接口下面我们接好一下在训练过程中经常要面对的一个问题,过拟合,以及在TensorFlow这个框架中如何更好的处理这个问题。tf2.0学习(六)——过拟合6.0 简介6.1 模型的容量6.2 过拟合与欠拟合6.2.1 欠拟合6.2.2 过拟合6.3 数据集划分6.3原创 2021-06-11 16:59:26 · 164 阅读 · 0 评论 -
tf2.0真正有用的——Keras高层接口
前边介绍了TensorFlow的基本操作:tf2.0学习(一)——基础知识tf2.0学习(二)——进阶知识tf2.0学习(三)——神经网络tf2.0学习(四)——反向传播算法下面介绍一个高度模块化、易扩展的高层接口Keras。tf2.0学习(五)——Keras高层接口5.0 简介5.1 常见功能模块5.1.1 常见网络层5.1.2 网络容器5.2 模型装配、训练与测试5.2.1 模型装配5.2.2 模型训练5.2.3 模型测试5.3 模型的保存与加载5.3.1 张量方式5.3.2 网络方式5.3原创 2021-06-06 17:41:50 · 301 阅读 · 0 评论 -
tf2.0学习(十一)——强化学习
前边介绍了TensorFlow的基本操作和神经网络的很多知识:tf2.0学习(一)——基础知识tf2.0学习(二)——进阶知识tf2.0学习(三)——神经网络tf2.0学习(四)——反向传播算法下面介绍一下强化学习强化学习是机器学习领域,除有监督学习、无监督学习之外的另一个分支,它主要用智能体与环境的交互,来实现获得良好结果的策略。与有监督学习不同,强化学习并没有明确的标注信息,只有来自环境的反馈的奖励信息,通常具有一定的滞后性。本章主要介绍DQN算法和PPO算法。11.1 先睹为快本节先通原创 2021-06-03 10:40:29 · 285 阅读 · 1 评论 -
tf2.0应负面试官——反向传播
我们接着之前的内容之前的文章分别介绍了TensorFlow中张量的一些基本知识:tf2.0学习(四)——反向传播4.1 导数与梯度4.2 导数的常见性质4.2.1 基本函数的导数4.2.2 常用导数的性质4.3 激活函数的导数4.3.1 Sigmoid函数导数4.3.2 ReLU函数导数4.3.3 LeakyReLU 函数导数4.3.4 Tanh函数导数4.4 损失函数的梯度4.4.1 均方误差函数梯度4.4.2 交叉熵函数梯度4.5 全连接层梯度4.5.1 单神经网络梯度4.5.2 全连接层梯度4.6原创 2021-05-25 11:26:40 · 198 阅读 · 0 评论 -
tf2.0这次入门啦(三)——神经网络
之前的文章分别介绍了TensorFlow中张量的一些基本知识:tf2.0学习(三)——神经网络3.1 全连接层3.1.1 张量方式实现3.1.2 层的方式实现3.2 神经网络3.2.1 张量的方式3.2.2 层的方式3.3.3 优化目标3.4 激活函数3.4.1 Sigmoid3.4.2 ReLU3.4.3 LeakyReLU3.4.4 Tanh3.5 输出层设计3.6 误差计算3.6.1 均方误差3.6.2 交叉熵3.7 神经网络的类型3.7.1 卷积神经网络(CNN)3.7.2 循环神经网络(RNN)原创 2021-05-11 15:27:26 · 330 阅读 · 0 评论 -
tf2.0这些也重要(二)——高级知识
前一篇文章介绍了TensorFlow的基础知识,主要是张量的基本操作,这篇文章主要介绍有些张量的进阶操作,譬如合并、分割、范数统计、填充、限幅等。2.1 合并与分割2.1.1 合并合并是指将多个张量,按照某一维度进行合并,称为一个张量。合并还分为拼接和堆叠两种操作。拼接在TensorFlow中用 tf.concat(tensor_list, axis) 实现。a = tf.random.normal([4, 32, 32, 3])b = tf.random.normal([3, 32, 32,原创 2021-04-06 14:42:58 · 352 阅读 · 0 评论 -
tf2.0这些更重要(一)——基础知识
类型通过tf.constant()可以创建3中数据类型,分别是数值、布尔、字符串# 标量tf.constant(2., dtype=tf.float16)# 向量tf.constant([2,3], dtype=tf.int16)# 张量 维度>2tf.constant([[[1,2], [3,4]], [[5,6], [7,8]]])数值精度TensorFlow支持一下几种数据类型,一般在数据定义的时候指定dtype来确定数据类型。tf.float16tf.float3原创 2021-04-01 17:11:19 · 357 阅读 · 0 评论