![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
tensorflow学习笔记
文章平均质量分 76
有趣的学习
日常记笔记,更多内容关注可见(^_^)a
展开
-
解决ModuleNotFoundError: No module named ‘tensorflow.contrib‘
d解决另外附带一个常见的版本兼容性问题就是tf.app不能使用的,TensorFlow遇到的bug:ModuleNotFoundError: No module named 'tensorflow.contrib'import tensorflow.contrib.slim as slim不降级解决:下载镜像包pip install --upgrade tf_slim将import tensorflow.contrib.slim as slim改为import原创 2021-12-22 19:17:28 · 2405 阅读 · 0 评论 -
解决No OpKernel was registered to support Op ‘Resampler‘
TensorFlow遇到的记录:不能用gpu跑,用conda list并没有安装TensorFlow cpu版本No OpKernel was registered to support Op 'Resampler'测试:from tensorflow.python.client import device_libprint(device_lib.list_local_devices())返回:Your CPU supports instructions that this Te原创 2021-12-22 18:59:47 · 1634 阅读 · 0 评论 -
Tensorflow学习笔记11-循环神经网络 RNN
@TOC循环神经网络 RNN循环神经网络 RNN (Recurrent Neural Network)RNN 的用途对于预测, 顺序排列十分重要. 我们可以预测下一个按照一定顺序排列的字, 但是打乱顺序, 我们就没办法分析自己到底在说什么了.序列数据那我们如何让数据间的关联也被 NN 加以分析呢? 想想我们人类是怎么分析各种事物的关联吧, 最基本的方式,就是记住之前发生的事情. 那我们让神经网络也具备这种记住之前发生的事的能力. 再分析 Data0 的时候, 我们把分析结果存入记忆. 然后当分原创 2020-12-03 20:31:54 · 181 阅读 · 0 评论 -
Tensorflow学习笔记10-Saver保存读取
Saver保存读取保存提取输出保存import所需的模块, 然后建立神经网络当中的 W 和 b, 并初始化变量。存时, 首先要建立一个 tf.train.Saver() 用来保存, 提取变量. 再创建一个名为my_net的文件夹, 用这个 saver 来保存变量到这个目录 “my_net/save_net.ckpt”.#---------------保存到文件-------------#W = tf.Variable([[1,2,3],[3,4,5]], dtype=tf.float32, na原创 2020-12-03 20:05:47 · 155 阅读 · 0 评论 -
Tensorflow学习笔记9-卷积神经网络CNN
这里写目录标题什么是卷积神经网络 CNN卷积convolution池化poolingFlatten流程流行的 CNN 结构什么是卷积神经网络 CNN我们先把卷积神经网络这个词拆开来看. “卷积” 和 “神经网络”. 卷积也就是说神经网络不再是对每个像素的输入信息做处理了,而是图片上每一小块像素区域进行处理, 这种做法加强了图片信息的连续性. 使得神经网络能看到图形, 而非一个点. 这种做法同时也加深了神经网络对图片的理解.具体来说, 卷积神经网络有一个批量过滤器, 持续不断的在图片上滚动收集图片里的信原创 2020-12-03 19:53:32 · 1093 阅读 · 0 评论 -
Tensorflow学习笔记8-数据分类Classification&Dropout 解决 overfitting
MNIST 数据分类学习ClassificationMNIST 数据搭建网络交叉熵( Cross Entropy Loss)训练计算精度的函数输出结果MNIST 数据首先准备数据(MNIST库)import tensorflow.compat.v1 as tftf.compat.v1.disable_eager_execution()#导入mnist 数据 1-10from tensorflow.examples.tutorials.mnist import input_data#one-ho原创 2020-12-02 18:38:58 · 185 阅读 · 0 评论 -
【Tensorflow】-【学习笔记7】-可视化tensorboard
可视化tensorboard效果搭建图纸最终的路径打开图纸完整代码效果学会用 Tensorflow 自带的 tensorboard 去可视化我们所建造出来的神经网络是一个很好的学习理解方式. 用最直观的流程图告诉你你的神经网络是长怎样,有助于你发现编程中间的问题和疑问.效果这次我们会介绍如何可视化神经网络。因为很多时候我们都是做好了一个神经网络,但是没有一个图像可以展示给大家看。这一节会介绍一个TensorFlow的可视化工具 — tensorboard ???? 通过使用这个工具我们可以很直观的看到原创 2020-12-01 20:50:14 · 801 阅读 · 1 评论 -
【Tensorflow】-【学习笔记6】-加速神经网络训练&优化器
本文不会涉及数学推导. 大家可以在很多其他地方找到优秀的数学推导文章.加速神经网络训练 Speed Up TrainingStochastic Gradient Descent (SGD)Momentum 更新方法AdaGrad 更新方法RMSProp 更新方法Adam 更新方法优化器 optimizer各种不同的优化器**GradientDescentOptimizer**。Tf.train.MomentumOptimizerTf.train.AdamOptimizer包括以下几种模式:Stoc.原创 2020-12-01 17:35:06 · 431 阅读 · 0 评论 -
【Tensorflow】-【学习笔记5】-建造我们第一个神经网络
建造我们第一个神经网络定义 add_layer()导入数据完整代码定义 add_layer()在 Tensorflow 里定义一个添加层的函数可以很容易的添加神经层,为之后的添加省下不少时间.神经层里常见的参数通常有weights、biases和激励函数。首先,我们需要导入tensorflow模块。import tensorflow as tf然后定义添加神经层的函数def add_layer(),它有四个参数:输入值、输入的大小、输出的大小和激励函数,我们设定默认的激励函数是None。de原创 2020-11-30 21:03:05 · 263 阅读 · 0 评论 -
【Tensorflow】-【学习笔记5】-激励函数 (Activation Function)
激励函数 Activation Function激励函数常用选择Tensorflow常用激活函数tf.sigmoid()tf.tanh()tf.nn.relu()tf.nn.softplus()tf.nn.softmax()tf.nn.dropout()tf.nn.elu()一般规则激励函数这里的 AF 就是指的激励函数. 激励函数拿出自己最擅长的”掰弯利器”, 套在了原函数上 用力一扭, 原来的 Wx 结果就被扭弯了.其实这个 AF, 掰弯利器, 也不是什么触不可及的东西. 它其实就是另外一个非线原创 2020-11-30 14:08:13 · 451 阅读 · 0 评论 -
【Tensorflow】-【学习笔记4】-Placeholder 传入值
这一次学习 Tensorflow 中的 placeholder , placeholder 是 Tensorflow 中的占位符,暂时储存变量.Tensorflow 如果想要从外部传入data, 那就需要用到 tf.placeholder(), 然后以这种形式传输数据sess.run(***, feed_dict={input: **}).示例:import tensorflow as tf#在 Tensorflow 中需要定义 placeholder 的 type ,一般为 float32 .原创 2020-11-30 13:29:58 · 210 阅读 · 0 评论 -
【Tensorflow】-【学习笔记3】-Variable 变量
这节课学习如何在 Tensorflow 中使用 Variable .在 Tensorflow 中,定义了某字符串是变量,它才是变量,这一点是与 Python 所不同的。定义语法: state = tf.Variable()import tensorflow as tfstate = tf.Variable(0, name='counter')# 定义常量 oneone = tf.constant(1)# 定义加法步骤 (注: 此步并没有直接计算)new_value = tf.add(st.原创 2020-11-30 11:26:46 · 163 阅读 · 0 评论 -
【Tensorflow】-【学习笔记2】-Session 会话控制
简单运用 Tensorflow 中的 Session, Session 是 Tensorflow为了控制,和输出文件的执行的语句. 运行 session.run() 可以获得你要得知的运算结果, 或者是你所要运算的部分.首先,我们这次需要加载 Tensorflow ,然后建立两个 matrix ,输出两个 matrix 矩阵相乘的结果。import tensorflow as tf# create two matrixesmatrix1 = tf.constant([[3,3]])matrix.原创 2020-11-30 11:07:15 · 286 阅读 · 0 评论 -
【Tensorflow】-【学习笔记1】-例子
Tensorflow 是非常重视结构的, 我们得建立好了神经网络的结构, 才能将数字放进去, 运行这个结构.这个例子简单的阐述了 tensorflow 当中如何用代码来运行我们搭建的结构.学习链接莫烦python创建数据首先, 我们这次需要加载 tensorflow 和 numpy 两个模块, 并且使用 numpy 来创建我们的数据.import tensorflow as tfimport numpy as npcreate datax_data = np.random.rand(1.原创 2020-11-30 11:01:44 · 145 阅读 · 2 评论