![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
tensorflow用法
文章平均质量分 52
UESTC_C2_403
如果大家对博客内容有什么建议或者问题,可以在博客下面留言哦,谢谢大家!
展开
-
tf.matrix_diag和tf.matrix_inverse的用法(tensorflow如何生成对角矩阵和求逆矩阵)
1.tf.matrix_diag(dia):输入参数是dia,如果输入时一个向量,那就生成二维的对角矩阵,以此类推2.tf.matrix_inverse(A):输入如果是一个矩阵,就是得到逆矩阵,依次类推,只是输入的A中的元素需要是浮点数,比如tf.float32等格式,如果是整形,就会出错哈。例如:矩阵(二维张量)import tensorflow as tf;A = [1,原创 2017-08-15 15:35:58 · 12259 阅读 · 0 评论 -
tf.nn.rnn_cell.MultiRNNCell函数用法
tf.nn.rnn_cell.MultiRNNCell([list RNNcell], state_is_tuple=True).这个函数里面主要这两个参数,第一个参数就是输入的RNN实例形成的列表,第二个参数就是让状态是一个元祖,官方推荐就是用True。例如:import tensorflow as tf;import numpy as np;X = tf.random_norma原创 2017-06-17 09:55:32 · 23270 阅读 · 13 评论 -
tf.nn.rnn_cell.GRUCell函数的使用
tf.nn.rnn_cell.GRUCell(num_units, input_size=None, activation=).num_units就是隐层神经元的个数,默认的activation就是tanh,你也可以自己定义,但是一般都不会去修改。这个函数的主要的参数就是num_units。例如:import tensorflow as tf;import numpy as np;X原创 2017-06-17 09:04:46 · 14629 阅读 · 1 评论 -
tf.nn.rnn_cell.BasicRNNCell函数的用法
tf.nn.rnn_cell.BasicRNNCell(n_hidden)这个参数就是隐藏神经元的个数。例如:import tensorflow as tfbatch_size = 4 input = tf.random_normal(shape=[3, batch_size, 6], dtype=tf.float32)cell = tf.nn.rnn_cell.BasicRNNC原创 2017-06-16 23:07:38 · 4568 阅读 · 0 评论 -
tf.nn.rnn_cell.BasicLSTMCell函数用法
tf.nn.rnn_cell.BasicLSTMCell(n_hidden, forget_bias=1.0, state_is_tuple=True): n_hidden表示神经元的个数,forget_bias就是LSTM们的忘记系数,如果等于1,就是不会忘记任何信息。如果等于0,就都忘记。state_is_tuple默认就是True,官方建议用True,就是表示返回的状态用一个元祖表示。这个里原创 2017-06-16 22:27:12 · 27039 阅读 · 7 评论 -
tf.transpose函数的用法
tf.transpose(input, [dimension_1, dimenaion_2,..,dimension_n]):这个函数主要适用于交换输入张量的不同维度用的,如果输入张量是二维,就相当是转置。dimension_n是整数,如果张量是三维,就是用0,1,2来表示。这个列表里的每个数对应相应的维度。如果是[2,1,0],就把输入张量的第三维度和第一维度交换。例如:import t原创 2017-06-16 19:13:29 · 50132 阅读 · 8 评论 -
查看tensorflow的版本和路径
tensorflow的版本和路径主要用一下两个函数:tf.__version__,和tf.__path__例如:import tensorflow as tf;with tf.Session() as sess: sess.run(tf.initialize_all_variables()) print tf.__path__ print tf.__version__输出:原创 2017-05-30 19:38:29 · 9641 阅读 · 1 评论 -
tensorflow里面几个随机函数的用法
tf.constant(value, dtype=None, shape=None) 创建一个常量tensor,按照给出value来赋值,可以用shape来指定其形状。value可以是一个数,也可以是一个list。 如果是一个数,那么这个常亮中所有值的按该数来赋值。tf.random_normal(shape,mean=0.0,stddev=1.0,dtype=tf.flo原创 2017-05-30 16:43:35 · 10094 阅读 · 0 评论 -
tf.add_n函数的用法
tf.add_n([p1, p2, p3....])函数是实现一个列表的元素的相加。就是输入的对象是一个列表,列表里的元素可以是向量,矩阵,等例如:import tensorflow as tf;import numpy as np;input1 = tf.constant([1.0, 2.0, 3.0])input2 = tf.Variable(tf.random_uniform原创 2017-05-30 10:25:50 · 43966 阅读 · 0 评论 -
tf.unpack函数的用法
tf.unpack(A, axis)是一个解包函数。A是一个需要被解包的对象,axis是一个解包方式的定义,默认是零,如果是零,返回的结果就是按行解包。如果是1,就是按列解包。例如:from tensorflow.models.rnn.ptb import readerimport tensorflow as tf;import numpy as np;A = [[1, 2, 3]原创 2017-05-30 09:27:56 · 8154 阅读 · 6 评论 -
assert的用法
assert用于断言,也就是判断一下一个表达式的的对与错,或者是一数字或者布尔类型的数据。如果是对的,那就继续执行下面程序,反正出现断言错误的标记,AssertionError例如:import tensorflow as tf; import numpy as np; import matplotlib.pyplot as plt; assert 1pr原创 2017-05-18 11:19:28 · 1192 阅读 · 0 评论 -
tf.nn.seq2seq.sequence_loss_by_example函数用法
tf.nn.seq2seq.sequence_loss_by_example(logits, targets, weights):主要说一下这三个参数的意思和用法:logits是一个二维的张量,比如是a*b,那么targets就是一个一维的张量长度为a,并且targets中元素的值是不能超过b的整形,32位的整数。也即是如果b等于4,那么targets中的元素的值都要小于4。weights就是原创 2017-05-28 14:11:12 · 12731 阅读 · 9 评论 -
tf.add_to_collection,tf.get_collection和tf.add_n的用法
tf.add_to_collection:把变量放入一个集合,把很多变量变成一个列表tf.get_collection:从一个结合中取出全部变量,是一个列表tf.add_n:把一个列表的东西都依次加起来例如:import tensorflow as tf; import numpy as np; import matplotlib.pyplot as plt原创 2017-05-17 17:07:26 · 54256 阅读 · 3 评论 -
tensorflow中的关键字global_step使用
global_step经常在滑动平均,学习速率变化的时候需要用到,这个参数在tf.train.GradientDescentOptimizer(learning_rate).minimize(loss, global_step=global_steps)里面有,系统会自动更新这个参数的值,从1开始。例如:import tensorflow as tf; import numpy as原创 2017-05-17 16:26:15 · 32727 阅读 · 13 评论 -
tf.train.NewCheckpointReader实现保存变量的提取
tf.train.NewCheckpointReader('path'):path是保存的路径,这个函数可以得到保存的所有变量例如:先保存一个模型,参数为v,v1.import tensorflow as tf; import numpy as np; import matplotlib.pyplot as plt; v = tf.Variable(0, dtype=tf.f原创 2017-05-17 14:47:02 · 9300 阅读 · 3 评论 -
tf.nn.rnn_cell.DrououtWrapper函数的用法
tf.nn.rnn_cell.DrououtWrapper(cell, input_keep_prob=1.0, output_keep_prob=1.0)主要的参数就是三个,第一个就是输入的循环神经网络的cell,可以设定为BasicLSTMCell等等。第二个参数就是输入数据使用dropout,后面的概率,如果是一,就不会执行dropout。第三个参数是一样的意思。一般这里的dropout是在原创 2017-06-17 10:06:32 · 8415 阅读 · 2 评论 -
tf.nn.sparse_softmax_cross_entropy_with_logits的用法
tf.nn.sparse_softmax_cross_entropy_with_logits(y, tf.argmax(y_)):y表示的是实际类别,y_表示预测结果,这实际上面是把原来的神经网络输出层的softmax和cross_entrop何在一起计算,为了追求速度。例如:se_softmax_cross_entropy_with_logits(y1, tf.argmax(y_1,原创 2017-05-16 10:37:40 · 23091 阅读 · 3 评论 -
tf.split函数的用法
tf.split(dimension, num_split, input):dimension的意思就是输入张量的哪一个维度,如果是0就表示对第0维度进行切割。num_split就是切割的数量,如果是2就表示输入张量被切成2份,每一份是一个列表。例如:import tensorflow as tf;import numpy as np;A = [[1,2,3],[4,5,6]]x原创 2017-06-16 19:01:59 · 43792 阅读 · 7 评论 -
tf.linspace和np.linspace的对比分析
解释:tf.linspace(start, end, num):这个函数主要的参数就这三个,start代表起始的值,end表示结束的值,num表示在这个区间里生成数字的个数,生成的数组是等间隔生成的。start和end这两个数字必须是浮点数,不能是整数,如果是整数会出错的,请注意!np.linspace(start, end, num):主要的参数也是这三个,我们平时用的时候绝大多数时候就原创 2017-07-25 09:26:35 · 8160 阅读 · 2 评论 -
利用CNN实现手写体识别
用TensorFlow实现CNN代码#-*- coding:utf-8 -*-import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_datamnist = input_data.read_data_sets("MNIST_data/", one_hot=True)# 产生随机变量,符转载 2017-06-03 08:04:55 · 2414 阅读 · 0 评论 -
tensorflow中的基本函数和意思
2、tf函数TensorFlow 将图形定义转换成分布式执行的操作, 以充分利用可用的计算资源(如 CPU 或 GPU。一般你不需要显式指定使用 CPU 还是 GPU, TensorFlow 能自动检测。如果检测到 GPU, TensorFlow 会尽可能地利用找到的第一个 GPU 来执行操作.并行计算能让代价大的算法计算加速执行,TensorFlow也在实现上对复杂操作进行了有效的改进。大转载 2017-06-14 14:39:56 · 3013 阅读 · 0 评论 -
tensorflow中的TFRecord格式文件的写入和读取
在tensorflow中,TFRecord格式的文件是可以将样本和标签放在一起,是在模型之前的一个预处理步骤,这种方式可以很大的提高效率和节约运行的内存,这种格式对数据是不进行压缩的。1.写入import tensorflow as tf; image_raw_data = tf.gfile.FastGFile('/home/penglu/Desktop/11.jpg').read(原创 2017-07-05 15:11:15 · 5778 阅读 · 0 评论 -
tensorflow读取图片的方法
下面讲解tensorflow如何读取jpg格式的图片,png格式的图片是一样的。有两种情况:第一种就是把图片看做是一个图片直接读进来,获取图片的原始数据,再进行解码,主要用到的函数就是tf.gfile.FastGFile,tf.image.decode_jpeg例如:原创 2017-07-05 14:38:18 · 17654 阅读 · 6 评论 -
tensorflow中tf.maximum,tf.minimum,tf.argmax,tf.argmain的对比
tf.maximum:用法tf.maximum(a,b),返回的是a,b之间的最大值,tf.miniimum:用法tf.miiinimum(a,b),返回的是a,b之间的最小值,tf.argmax:用法tf.argmax(a,dimension),返回的是a中的某个维度最大值的索引,tf.argmain:用法tf.argmin(a,dimension),返回的是a中的某个维度最小值的索原创 2017-07-05 09:10:04 · 22269 阅读 · 0 评论 -
tf.nn.in_top_k的用法
tf.nn.in_top_k组要是用于计算预测的结果和实际结果的是否相等,返回一个bool类型的张量,tf.nn.in_top_k(prediction, target, K):prediction就是表示你预测的结果,大小就是预测样本的数量乘以输出的维度,类型是tf.float32等。target就是实际样本类别的标签,大小就是样本数量的个数。K表示每个样本的预测结果的前K个最大的数里面是否含有原创 2017-06-13 16:31:30 · 20876 阅读 · 3 评论 -
tf.train.batch和tf.train.shuffle_batch的用法
tf.train.batch([example, label], batch_size=batch_size, capacity=capacity):[example, label]表示样本和样本标签,这个可以是一个样本和一个样本标签,batch_size是返回的一个batch样本集的样本个数。capacity是队列中的容量。这主要是按顺序组合成一个batchtf.train.shuffle_原创 2017-05-26 09:19:27 · 11374 阅读 · 4 评论 -
tensorflow中get_shape函数的应用
get_shape函数主要用于获取一个张量的维度,并且输出张量 每个维度上面的值,如果是二维矩阵,也就是输出行和列的值,使用非常方便。例如:import tensorflow as tf; with tf.Session() as sess: A = tf.random_normal(shape=[3,4]) print A.get_shape() print A.get_sha原创 2017-07-03 08:59:30 · 6486 阅读 · 0 评论 -
tensorflow让彩色图变成灰度图
tensorflow里面把彩图灰度转换的函数是tf.image.rgb_to_grayscale,这个函数关键的参数就一个,那就是输入图像。例如:import matplotlib.pyplot as plt; import tensorflow as tf; import numpy as np;with tf.Session() as sess: image_raw_da原创 2017-07-02 19:53:00 · 11702 阅读 · 3 评论 -
Tensorflow一些常用基本概念与函数(1)
1、tensorflow的基本运作为了快速的熟悉TensorFlow编程,下面从一段简单的代码开始:import tensorflow as tf #定义‘符号’变量,也称为占位符 a = tf.placeholder("float") b = tf.placeholder("float") y = tf.mul(a, b) #构造一个op节点 sess = tf.Ses转载 2017-06-03 08:05:54 · 1194 阅读 · 0 评论 -
tensorboard在linux下的启动问题
tensorboard在linux会遇到这个情况。如果你的输入是tensorboard --logdir='my_graph'会出现以下错误,tensorboard: command not found。意思就是说没有发现这个东西。所以在启动的是时候需要换一种方式:python /home/PL/.local/lib/python2.7/site-packages/tensorflow/t原创 2017-06-19 10:22:20 · 12566 阅读 · 0 评论 -
tensorflow中tf.nn.conv2d_transpose的应用
tf.nn.conv2d_transpose(x, w, output_shape, strides, padding='SAME'):推荐使用x的数据格式为默认格式[batch, height, width, in_channels]。w是滤波器,输入分格式为[height, width, output_channels, in_channels]。output_shape就是输出数据的格式[b原创 2017-06-17 21:55:38 · 4610 阅读 · 2 评论 -
tf.nn.embedding_lookup函数的用法
tf.nn.embedding_lookup函数的用法主要是选取一个张量里面索引对应的元素。tf.nn.embedding_lookup(tensor, id):tensor就是输入张量,id就是张量对应的索引,其他的参数不介绍。例如:import tensorflow as tf;import numpy as np;c = np.random.random([10,1])b =原创 2017-05-27 10:52:55 · 67523 阅读 · 3 评论 -
tensorflow中保存部分模型节点
比如在神经网络做预测的时候,只需要保存部分的节点,比如变量的初始化这些就不需要保存。比如:import tensorflow as tf; import numpy as np; import matplotlib.pyplot as plt; from tensorflow.python.framework import graph_utilv1 = tf.Variabl原创 2017-05-17 10:57:44 · 2164 阅读 · 0 评论 -
variables_to_restore函数的用法
variables_to_restore是为了在保持模型的时候方便使用滑动平均的参数,如果不使用这个保存,那模型就会保存所以参数,除非你提前设定,就是在保存的时候指定保存变量也是可以的,比如saver = tf.train.Saver([v])这样就可以指定保存变量v,在模型导入的时候只有这个变量会被导入。比如:import tensorflow as tf; import numpy原创 2017-05-17 10:02:24 · 2889 阅读 · 0 评论 -
tensorflow中的优化函数
GradientDescentOptimizer AdagradOptimizer AdagradDAOptimizer MomentumOptimizer AdamOptimizer FtrlOptimizer RMSPropOptimizer主要有以上几种用法:tf.GradientDescentOptimizer(learning_rate)一般在原创 2017-05-15 19:30:21 · 3846 阅读 · 0 评论 -
tf.convert_to_tensor的用法
tf.convert_to_tensor用于将不同数据变成张量:比如可以让数组变成张量、也可以让列表变成张量。例如:import tensorflow as tf;import numpy as np;A = list([1,2,3])B = np.array([1,2,3])C = tf.convert_to_tensor(A)D = tf.convert_to_tensor(B原创 2017-05-15 19:22:25 · 21244 阅读 · 3 评论 -
tf.cast用法
tf.cast:用于改变某个张量的数据类型例如:import tensorflow as tf;import numpy as np;A = tf.convert_to_tensor(np.array([[1,1,2,4], [3,4,8,5]]))with tf.Session() as sess: print A.dtype b = tf.cast(A, tf.float原创 2017-05-15 19:20:28 · 26399 阅读 · 0 评论 -
tf.clip_by_value的用法
tf.clip_by_value(A, min, max):输入一个张量A,把A中的每一个元素的值都压缩在min和max之间。小于min的让它等于min,大于max的元素的值等于max。例如:import tensorflow as tf;import numpy as np;A = np.array([[1,1,2,4], [3,4,8,5]])with tf.Session(原创 2017-05-15 19:15:31 · 30097 阅读 · 4 评论 -
tf.reduce_mean的用法
import tensorflow as tf;import numpy as np;A = np.array([[1,2], [3,4]])with tf.Session() as sess: print sess.run(tf.reduce_mean(A)) print sess.run(tf.reduce_mean(A, axis=0)) print sess.run(tf.原创 2017-05-15 19:10:08 · 13499 阅读 · 3 评论 -
tensorflow在图像中加入标注框
tensorflow提供了给图像加入标注框的函数。tf.image.draw_bounding_boxes(img, boxes).img是目标图像,不过需要变成四维,增加一个维度,利用tf.expand_dims函数,这个函数。boxes是一个三维的数组,里面的元素有4个维度,分别表示框的位置,这些数值是相对位置,例如:import matplotlib.pyplot as plt;i原创 2017-05-24 20:15:11 · 6458 阅读 · 17 评论