tensorflow
zxyhhjs2017
这个作者很懒,什么都没留下…
展开
-
tensorflow---之张量的理解
自己通过网上查询的有关张量的解释,稍作整理。 TensorFlow用张量这种数据结构来表示所有的数据.你可以把一个张量想象成一个n维的数组或列表.一个张量有一个静态类型和动态类型的维数.张量可以在图中的节点之间流通.阶在TensorFlow系统中,张量的维数来被描述为阶.但是张量的阶和矩阵的阶并不是同一个概念.张量的阶(有时是关于如顺序或度数或者是n维)是张量维数的一个数量描述.比...转载 2018-07-28 15:45:51 · 2262 阅读 · 0 评论 -
tensorflow---之常量与变量的区别
常量和变量TensorFlow 中最基本的单位是常量(Constant)、变量(Variable)和占位符(Placeholder)。常量定义后值和维度不可变,变量定义后值可变而维度不可变。在神经网络中,变量一般可作为储存权重和其他信息的矩阵,而常量可作为储存超参数或其他结构信息的变量。下面我们分别定义了常量与变量: a = tf.constant(2, tf.int16) ...转载 2018-09-03 16:42:35 · 2092 阅读 · 1 评论 -
tensorflow---之feed_dict和使用队列的区别
sess.run() 中的feed_dict我们都知道feed_dict的作用是给使用placeholder创建出来的tensor赋值。其实,他的作用更加广泛:feed 使用一个 值临时替换一个 op 的输出结果. 你可以提供 feed 数据作为 run() 调用的参数. feed 只在调用它的方法内有效, 方法结束, feed 就会消失.(意思就是和所只有使用feed_dict才能替换,...原创 2018-09-09 10:37:30 · 1300 阅读 · 0 评论 -
tensorflow---线程如何使用以及在tf.train.shuffle_batch()等函数当中如何使用
多线程输入数据处理 TFRecord输入数据格式TensorFlow提供一种统一的TFRecord来存储数据,TFRecord文件中的数据都是通过tf.train.Example Protocol Buffer的格式来存储。message Example { Features features = 1;};message Features { map<...转载 2018-09-09 11:17:34 · 4829 阅读 · 1 评论 -
tensorflow--之将数字标签转化为one-hot
如果要用到soft_max函数,就必须将数字标签转化为one-hot,之前用caffe是自动转,这回使用tensoflow是的自己转:例子代码如下:import numpy as nplabels=np.asarray([0,4,2,3,2,0])num_labels = labels_dense.shape[0]num_classes=5index_offset = np...原创 2018-09-09 16:25:54 · 2600 阅读 · 1 评论 -
tensorflow---之将数字标签转化为
转载: https://blog.csdn.net/a_yangfh/article/details/77911126在MNIST手写字数据集中,我们导入的数据和标签都是预先处理好的,但是在实际的训练中,数据和标签往往需要自己进行处理。以手写数字识别为例,我们需要将0-9共十个数字标签转化成onehot标签。例如:数字标签“6”转化为onehot标签就是[0,0,0,0,0,0,1,0,0...转载 2018-09-09 19:37:10 · 1375 阅读 · 0 评论 -
tensorflow---错误input
错误提示:OutOfRangeError (see above for traceback): RandomShuffleQueue '_1_shuffle_batch/random_shuffle_queue' is closed and has insufficient elements (requested 128, current size 0) [[Node: shuffl...原创 2018-09-10 16:07:09 · 572 阅读 · 0 评论 -
tensorflow---之tf.record文件的使用
概述关于Tensorflow读取数据,官网给出了三种方法:供给数据(Feeding): 在TensorFlow程序运行的每一步, 让Python代码来供给数据。 从文件读取数据: 在TensorFlow图的起始, 让一个输入管线从文件中读取数据。 预加载数据: 在TensorFlow图中定义常量或变量来保存所有数据(仅适用于数据量比较小的情况)。对于数据量较小而言,可能一般选择直接将...转载 2018-09-07 09:36:01 · 963 阅读 · 0 评论 -
tensorflow---之什么时候用sess.run()
用sess.run()有两种情况:1.想要获取某个变量的时候:2.执行某种操作的时候,这个操作不是一个变量,没有值,如下图n这个更新操作,还包括神经网络训练的时候的optimizer:...转载 2018-09-07 10:20:43 · 5421 阅读 · 0 评论 -
tensorflow---之conv2d
转自 http://www.cnblogs.com/welhzh/p/6607581.html下面是这位博主自己的翻译加上测试心得 tf.nn.conv2d是TensorFlow里面实现卷积的函数,参考文档对它的介绍并不是很详细,实际上这是搭建卷积神经网络比较核心的一个方法,非常重要tf.nn.conv2d(input, filter, strides, padding, u...转载 2018-09-07 11:09:33 · 688 阅读 · 0 评论 -
tensorflow---之tf.train.shuffle_batch函数
capacity是队列的长度min_after_dequeue是出队后,队列至少剩下min_after_dequeue个数据假设现在有个test.tfrecord文件,里面按从小到大顺序存放整数0~1001. tf.train.batch是按顺序读取数据,队列中的数据始终是一个有序的队列,比如队列的capacity=20,开始队列内容为0,1,..,19=>读取10条记录后,队列剩...转载 2018-09-07 15:48:43 · 752 阅读 · 0 评论 -
tensorflow---之tf.record如何存浮点数数组
因为最近打算转战Tensorflow,我将自己的脑部肿瘤分割课题从caffe转移到tensorflow上去然后我将数据存到Tf.record里面去,出现来不收敛,以及精度上不去的等现象。最终原因是:数据 存入tf.record,我转为二进制也就是使用来tobytes()函数,再将数据存入tf.record,浮点数以二进制存入会有精度丢失问题。其实:当发现这个精度上不去的现象之后,我第一...原创 2018-09-19 17:31:24 · 4122 阅读 · 4 评论 -
tensorflow---之accuracy.eval
eval() 其实就是tf.Tensor的Session.run() 的另外一种写法。你上面些的那个代码例子,如果稍微修改一下,加上一个Session context manager:with tf.Session() as sess: print(accuracy.eval({x:mnist.test.images,y_: mnist.test.labels}))其效果和下面的代...转载 2018-09-03 15:36:25 · 10943 阅读 · 0 评论 -
tensorflow---之tf.nn.sofmtmax_cross_entropy_logists
在计算loss的时候,最常见的一句话就是tf.nn.softmax_cross_entropy_with_logits,那么它到底是怎么做的呢?首先明确一点,loss是代价值,也就是我们要最小化的值 tf.nn.softmax_cross_entropy_with_logits(logits, labels, name=None)除去name参数用以指定该操作的name,与方法有关...转载 2018-09-03 15:03:40 · 160 阅读 · 0 评论 -
tensorflow---之tf.global_steps
global_step在滑动平均、优化器、指数衰减学习率等方面都有用到,这个变量的实际意义非常好理解:代表全局步数,比如在多少步该进行什么操作,现在神经网络训练到多少轮等等,类似于一个钟表。根据代码可以发现global_step的初始化值是0: global_step=tf.Variable(0, trainable=False) 这个初始化代码十分简单,但也是问题所在...转载 2018-09-03 14:58:48 · 245 阅读 · 0 评论 -
tensorflow---之读取数据的不同方式
利用Tensorflow的队列多线程读取数据在tensorflow中,有三种方式输入数据利用feed_dict送入numpy数组 利用队列从文件中直接读取数据 预加载数据其中第一种方式很常用,在tensorflow的MNIST训练源码中可以看到,通过feed_dict={},可以将任意数据送入tensor中。第二种方式相比于第一种,速度更快,可以利用多线程的优势把数据送入队列,再...转载 2018-07-28 15:52:11 · 459 阅读 · 0 评论 -
tensorflow---之卷积操作卷积函数
卷积卷积神经网络的结构其中,input为输入,conv为卷积层,由卷积核构成,pool为池层,由池化函数构成最后是全连接层与输出层,其负责对卷积层提取的特征进行处理以获得我们需要的结果卷积函数卷积函数是本篇文章要讲解的内容,在TensorFlow中卷积函数输入的参数其输入参数主要有input, filter, strides, padding, use_cudnn_on_gp...转载 2018-07-28 16:26:28 · 1453 阅读 · 0 评论 -
tensorflow---之协调器 tf.train.Coordinator 和入队线程启动器 tf.train.start_queue_runners
TensorFlow的Session对象是支持多线程的,可以在同一个会话(Session)中创建多个线程,并行执行。在Session中的所有线程都必须能被同步终止,异常必须能被正确捕获并报告,会话终止的时候, 队列必须能被正确地关闭。TensorFlow提供了两个类来实现对Session中多线程的管理:tf.Coordinator和 tf.QueueRunner,这两个类往往一起使用。 C...转载 2018-07-28 19:47:51 · 502 阅读 · 0 评论 -
tensorflow---tf.nn.leaky_relu
tf.nn.leaky_relu tf.nn.leaky_relu( features, alpha=0.2, name=None)Defined in tensorflow/python/ops/nn_ops.py.Compute the Leaky ReLU activation function."Rectifier Nonlineariti...原创 2018-07-29 10:12:48 · 11089 阅读 · 0 评论 -
tensorflow---之手写体识别
原因:由于Tensorflow相对于caffe更加灵活,准备转战tensorflow,昨天看了下大概的基本函数,今天打算先跑跑简单的例子tensorflow的安装太简单了,一行代码搞定,网上很多教程,不一一列出。想安装固定tensorflow版本:pip install tensorflow-gpu==1.3.0 (gpu版本) 注意,不同的cuda和cudnn,对应的tensorfl...原创 2018-07-28 10:42:30 · 382 阅读 · 0 评论 -
tensorflow---之tf.get_Variable错误提示
转载:http://www.360doc.com/content/17/0308/22/20558639_635117665.shtml转载 2018-09-04 10:09:41 · 711 阅读 · 0 评论 -
tensorflow---之学习率衰减方式
学习率衰减转载:https://blog.csdn.net/akadiao/article/details/79560731学习率衰减(learning rate decay)在训练神经网络时,使用学习率控制参数的更新速度.学习率较小时,会大大降低参数的更新速度;学习率较大时,会使搜索过程中发生震荡,导致参数在极优值附近徘徊.为此,在训练过程中引入学习率衰减,使学习率随着训练的进行逐渐...转载 2018-09-04 14:58:41 · 5532 阅读 · 1 评论 -
tensorflow---之sess.run()
每一个tf.session会建立一个新的会话,一个新的图,如下第函数里的会话,和for循环里的会话,应该是两个不同的图原创 2018-09-05 10:58:30 · 672 阅读 · 0 评论 -
tensorflow---之张量与常量做逻辑运算,数据类型必须一致
如下图所示:在epochs上加入dtype = tf.float32即可,更改后:转载 2018-09-05 15:57:04 · 1455 阅读 · 0 评论 -
tensorflow---调用tf.softmax_cross_entropy_with_logits函数出错解决
解决:原来这个函数,不能按以前的方式进行调用了,只能使用命名参数的方式来调用。原来是这样的:tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(y, y_))因此修改需要成这样:tf.reduce_sum(tf.nn.softmax_cross_entropy_with_logits(logits=logits, lab...转载 2018-09-05 16:35:03 · 267 阅读 · 0 评论 -
tensorflow---之tf.Variable、tf.get_variable、tf.variable_scope
我之前有转载过一篇讲tf.variable_scope和tf.name_scope的文章,今天一看,觉得还是没介绍太清楚,没讲到点子上,毕竟英文什么的看起来还是挺麻烦的。故而,今天来细细梳理下tf.Variable、tf.get_variable、tf.variable_scope以及tf.name_scope四者之间的区别与联系。1. tf.Variable与tf.get_variable...转载 2018-09-03 10:30:42 · 138 阅读 · 0 评论 -
tensorflow---logits and labels must be broadcastable
无论是caffe还是tensorflow都得注意最后输出维度的问题,是几类最后全连接层就输出几个神经元,尤其是在把其他网络直接拿过来用的时候,一定要注意到最后神经元个数与类别匹配:tensorflow错误如下所示:...原创 2018-09-05 19:24:09 · 12307 阅读 · 3 评论 -
pytorch-tensorflow版本选择-cuda8-cudnn5.1
conda install tensorflow-gpu==1.12.0conda install pytorch==1.0.1原创 2019-05-10 21:16:36 · 771 阅读 · 1 评论