tensorflow
zkq_1986
这个作者很懒,什么都没留下…
展开
-
【tensorflow】batch_gather使用方法
import tensorflow as tftensor_a = tf.Variable([[1,2,3],[4,5,6],[7,8,9]])tensor_b = tf.Variable([[0],[1],[2]],dtype=tf.int32)tensor_c = tf.Variable([[0],[0],[0]],dtype=tf.int32)with tf.Session() a...原创 2019-11-20 15:33:36 · 2284 阅读 · 0 评论 -
【keras】在keras中model.fit_generator()和model.fit()有什么区别
fit() 会将数据全部装到内存,不适合大数据量。fit_generator() 只是转载部分数据,适合大数据量。原创 2019-11-20 14:21:50 · 702 阅读 · 0 评论 -
【tensorflow】指定第几个gpu运行
python代码中设置使用的GPUimport osos.environ["CUDA_VISIBLE_DEVICES"] = "1" #指定第1个gpu, 值从0开始原创 2019-08-07 10:43:00 · 959 阅读 · 0 评论 -
【TensorFlow】tf.nn.softmax_cross_entropy_with_logits的用法
在计算loss的时候,最常见的一句话就是tf.nn.softmax_cross_entropy_with_logits,那么它到底是怎么做的呢?首先明确一点,loss是代价值,也就是我们要最小化的值tf.nn.softmax_cross_entropy_with_logits(logits, labels, name=None)除去name参数用以指定该操作的name,与方法有关的一共两...转载 2019-05-08 14:28:58 · 160 阅读 · 0 评论 -
【NLP】神经网络之L2正则化
L2正则化是常用的避免模型过拟合的方法。通过在代价函数中增加了||W||^2 / 2,所以,在反向传播求导的时候需要做适当修改。原创 2019-05-08 14:27:27 · 641 阅读 · 0 评论 -
【tensorflow】TensorFlow随机张量:tf.set_random_seed函数解读
要在会话中生成不同的序列,请不要设置图层级别seed或操作级别seed:a = tf.random_uniform([1])b = tf.random_normal([1])print("Session 1")with tf.Session() as sess1: print(sess1.run(a)) # generates 'A1' print(sess1.run(a)...转载 2019-05-08 11:42:26 · 550 阅读 · 0 评论 -
【tensorflow】tf.contrib.rnn.BasicLSTMCell解析
BasicLSTMCell 是最简单的LSTMCell,源码位于:/tensorflow/contrib/rnn/python/ops/core_rnn_cell_impl.py。BasicLSTMCell 继承了RNNCell,源码位于:/tensorflow/python/ops/rnn_cell_impl.pydef __init__(self, num_units, forget...原创 2018-12-05 14:09:35 · 1384 阅读 · 0 评论 -
【tensorflow】tensorflow中使用gpu方法
在tensorflow中,我们可以使用 tf.device() 指定模型运行的具体设备,可以指定运行在GPU还是CUP上,以及哪块GPU上。设置使用GPU使用 tf.device('/gpu:1') 指定Session在第二块GPU上运行:import tensorflow as tf with tf.device('/gpu:1'): v1 = tf.constant([...转载 2018-11-14 10:12:14 · 4616 阅读 · 0 评论 -
【Tensorflow】Tensorflow生成一个服从正态分布的变量
Tensorflow生成一个服从正态分布的变量:import tensorflow as tfa = tf.get_variable('a',shape=[2,3],initializer=tf.random_normal_initializer(stddev=1))with tf.Session() as sess: tf.initialize_all_variables()...原创 2018-10-23 18:20:32 · 3135 阅读 · 0 评论 -
【Tensorflow】tensorboard的使用
代码例子:import tensorflow as tfclass TCNNConfig(object): # class TCNNConfig(filename): """CNN配置参数""" embedding_dim = 8 # 词向量维度 seq_length = 3 # 序列长度 num_classes = 2 # 类别数 ...原创 2018-10-25 16:03:26 · 382 阅读 · 0 评论 -
【tensorflow】tf.name_scope和tf.variable_scope以及tf.variable和tf.get_variable区别
tf.name_scope()和tf.variable_scope()是两个作用域,一般与两个创建、调用变量的函数tf.variable() 和tf.get_variable()搭配使用。它们搭配在一起的两个常见用途:1)变量共享,2)tensorboard画流程图时为了可视化封装变量。tf.name_scope(名字范围)下可以有相同的变量名,但仅限tf.Variable的变量tf.va...原创 2018-10-10 18:33:32 · 160 阅读 · 0 评论 -
【tensorflow】tensorflow常用函数
1.矩阵操作1.1矩阵生成这部分主要将如何生成矩阵,包括全0矩阵,全1矩阵,随机数矩阵,常数矩阵等tf.ones | tf.zerostf.ones(shape,type=tf.float32,name=None)tf.zeros([2, 3], int32)用法类似,都是产生尺寸为shape的张量(tensor)sess = tf.InteractiveSession()...转载 2018-10-10 17:23:15 · 377 阅读 · 0 评论 -
【Tensorflow】tf.nn.embedding_lookup函数的用法
tf.nn.embedding_lookup函数的用法主要是选取一个张量里面索引对应的元素。tf.nn.embedding_lookup(tensor, id):tensor就是输入张量,id就是张量对应的索引,其他的参数不介绍。例如:import tensorflow as tf;import numpy as np; c = np.random.random([10,1])b...原创 2018-10-16 19:12:22 · 568 阅读 · 0 评论 -
【tensorflow】TensorFlow技术内幕(一):源码结构
转载自:https://blog.csdn.net/gaofeipaopaotang/article/details/80540630本章讲解TensorFlow的源码结构。下面的内容我们一TF1.0的代码为例,介绍TF的源码结构,如果是其他版本,则结构可能会略有差异。根目录结构首先整体看一下整体的目录结构: 图1:TF根目录然后了解一下每个目录的功能:目录功能tensorflow/cC API代...转载 2018-06-09 22:37:52 · 2068 阅读 · 0 评论 -
【tensorflow】TensorFlow入门(五)多层 LSTM 通俗易懂版
前言: 根据我本人学习 TensorFlow 实现 LSTM 的经历,发现网上虽然也有不少教程,其中很多都是根据官方给出的例子,用多层 LSTM 来实现 PTBModel 语言模型,比如: tensorflow笔记:多层LSTM代码分析 但是感觉这些例子还是太复杂了,所以这里写了个比较简单的版本,虽然不优雅,但是还是比较容易理解。如果你想了解 LSTM 的原理的话(前提是你已经理解转载 2018-01-03 09:51:44 · 1838 阅读 · 0 评论 -
TensorFlow高效读取数据的方法
概述最新上传的mcnn中有完整的数据读写示例,可以参考。关于Tensorflow读取数据,官网给出了三种方法:供给数据(Feeding): 在TensorFlow程序运行的每一步, 让Python代码来供给数据。从文件读取数据: 在TensorFlow图的起始, 让一个输入管线从文件中读取数据。预加载数据: 在TensorFlow图中定义常量或变量来保存所有数据(仅适用于数转载 2017-09-13 10:11:50 · 1119 阅读 · 0 评论