tensorflow 学习
UESTC_20172222
向上的路,并不拥挤。 拥挤是因为,大部分人选择了安逸。
展开
-
多个checkpoint 的参数进行平均
现在将这些ckpt的参数进行平均 合并成一个model.ckpt-457157708。source_model 路径下 存在 以下几个checkpoint。原创 2023-09-14 15:28:11 · 208 阅读 · 0 评论 -
tf.nn.dynamic_rnn的详解
tf.nn.dynamic_rnn其和tf.nn.static_rnn,在输入,输出,参数上有很大的区别,请仔细阅读比较tf.nn.dynamic_rnn( cell, inputs, sequence_length=None, initial_state=None, dtype=None, parallel_iterations=None, ...原创 2018-12-28 15:23:01 · 4829 阅读 · 0 评论 -
tf.nn.static_rnn 和 tf.contrib.rnn.static_rnn讲解
tf.nn.static_rnn 和 tf.contrib.rnn.static_rnn tf.nn.static_rnn 是一样的,都表示同一个这里讲解一下 tf.nn.static_rnntf.nn.static_rnntf.nn.static_rnn( cell, inputs, initial_state=None, dtype=None, ...原创 2018-12-23 12:33:38 · 2075 阅读 · 0 评论 -
tf.gather,tf.range()的详解
在讲解这个之前,我们首先讲一下tf.range(),因为这两个一般都是在一起用的tf.range()其和python中的range()的用法基本一样,只不过这里返回的是一个1-D的tensortf.range(limit, delta=1, dtype=None, name=‘range’)tf.range(start, limit, delta=1, dtype=None, name=‘...原创 2018-12-28 16:03:04 · 2651 阅读 · 0 评论 -
实现一个真实的动态RNN
提示如果代码中出现了你不懂的接口,请翻看本人博客分类中名为 “tensorflow学习”的类目中,本人肯定一定有的,这里就列取出了主要的两个接口说明,其他如果不懂的,请自己去找哈tf.nn.dynamic_rnn详解tf.gather,tf.range的详解代码代码来自这里,我对进行了一些接口的提升,改进#!/usr/bin/env python# coding: utf-8fro...原创 2018-12-28 16:11:57 · 887 阅读 · 0 评论 -
tf.contrib.rnn.LSTMCell 和 tf.nn.rnn_cell.LSTMCell讲解
tf.contrib.rnn.LSTMCell 和 tf.nn.rnn_cell.LSTMCell 两个是一样的tf.nn.rnn_cell_LSTMCell()__init__( num_units, use_peepholes=False, cell_clip=None, initializer=None, num_proj=None, p...原创 2018-12-23 15:08:54 · 14286 阅读 · 5 评论 -
tf.stack讲解
tf.stacktf.stack( values, axis=0, name='stack')'''Args: values: A list of Tensor objects with the same shape and type. axis: An int. The axis to stack along. Defaults to the first di...原创 2018-12-23 15:57:22 · 1187 阅读 · 0 评论 -
tf.unstack讲解
tf.unstacktf.unstack( value, num=None, axis=0, name='unstack')'''Args: value: A rank R > 0 Tensor to be unstacked. num: An int. The length of the dimension axis. Automatically...原创 2018-12-23 16:41:20 · 1197 阅读 · 0 评论 -
实现一个简单的RNN,并对所用到的所有知识点进行讲解
tf.unstack请看本人这篇博客tf.nn.rnn_cell.LSTMCell 和 tf.contrib.rnn.LSTMCell请看本人这篇博客tf.nn.static_rnn 和 tf.contrib.rnn.static_rnn请看本人这篇博客实现一个简单的RNN代码来自这里,我稍微改了一些#!/usr/bin/env python# coding: utf-8...原创 2018-12-23 16:50:10 · 324 阅读 · 0 评论 -
tf.pow, tf.math.pow 讲解
tf.pow, tf.math.pow 是一样的这个操作为:x和y中的 对应元素 计算xyx^{y}xy,注意支持"广播方式(写这篇博客的初衷)"返回的是一个tensortf.math.pow( x, y, name=None)sess=tf.Session()x=tf.constant([[2,3],[4,5]])y_1=2res_1=tf.pow...原创 2018-12-28 19:16:15 · 9343 阅读 · 1 评论 -
tf.nn.static_bidirectional_rnn ; tf.contrib.rnn.static_bidirectional_rnn 讲解
tf.nn.static_bidirectional_rnn h 和tf.contrib.rnn.static_bidirectional_rnn是一样的tf.nn.static_bidirectional_rnn别名:tf.contrib.rnn.static_bidirectional_rnntf.nn.static_bidirectional_rnntf.nn.static_bi...原创 2018-12-24 22:50:43 · 1204 阅读 · 0 评论 -
实现一个双向的RNN(用于分类的)
提示如果代码中出现了你不懂的接口,请翻看本人博客分类中名为 “tensorflow学习”的类目中,本人肯定一定有的tf.nn.static_bidirectional_rnn请看本人这篇博客实现一个双向的RNN,用于MNIST分类代码来自这里,本人改了一些#!/usr/bin/env python# coding: utf-8# In[1]:from __future__ ...原创 2018-12-24 22:57:25 · 1341 阅读 · 0 评论 -
【深度学习】tf.contrib.crf.crf_log_likelihood()在使用crf做序列标注的损失函数
写之前写吐槽一下,当时写代码的时候看了一下CRF的推导怎么都看不懂,所以当时写的时候从别人的代码直接复制出来,今天面试的时候被面试官问了,结束后研究一下,发现代码真的好简单、、。。。。。。tf.contrib.crf.crf_log_likelihood()代码实现细节在这里,,,我只是为了看一下[transition_params],其实他也事一个variable,所以可以存储保存下来(ht...原创 2019-04-17 20:29:40 · 3537 阅读 · 0 评论 -
tf.nn.sigmoid_cross_entropy_with_logits
tf.nn.sigmoid_cross_entropy_with_logits这个函数适用于多标签分类是的损失函数(即类别和类别之间是相互独立的,不互斥的)tf.nn.sigmoid_cross_entropy_with_logits( _sentinel=None, labels=None, logits=None, name=None)参数说明计算网...原创 2019-04-18 15:46:50 · 2017 阅读 · 0 评论 -
讲解tf.estimator.Estimator tf.layers等高级API实现一个CNN
tf.contrib.layers.flatten假设输入(inputs)的第一个维度表示batch_size。在保持batch_size的同时,使输入的shape变为: [batch_size, k]tf.contrib.layers.flatten( inputs, outputs_collections=None, scope=None)'''Args:...原创 2018-12-22 21:06:06 · 826 阅读 · 0 评论 -
tf.nn.dropout讲解
Dropout原理简述:来自这位大佬tf.nn.dropout是TensorFlow里面为了防止或减轻过拟合而使用的函数,它一般用在全连接层。Dropout就是在不同的训练过程中随机扔掉一部分神经元。也就是让某个神经元的激活值以一定的概率p,让其停止工作,这次训练过程中不更新权值,也不参加神经网络的计算。但是它的权重得保留下来(只是暂时不更新而已),因为下次样本输入时它可能又得工作了。 示意...原创 2018-12-21 21:39:41 · 1613 阅读 · 0 评论 -
tensorflow中 session() 和 graph的关系
自己的理解一般我们都是先创建graph ,然后在创建一个 session,将图加载进去最近自己在学习tensorflow过程中,发现我们将图加载到会话里面后,可以继续基于加载的图 继续构造图例子import tensorflow as tfimport numpy as npa=tf.constant([[1,2],[3,5]])b=tf.constant([[1,2],[3,4]]...原创 2018-10-18 09:04:26 · 522 阅读 · 0 评论 -
tf.constant 的用法 以及和tf.fill的区别
tf.constanttf.constant( value, dtype=None, shape=None, name='Constant', vertify_shape=False)参数说明:value:输出类型的常量值(或列表)dtype。dtype:输出张量元素的类型。...原创 2018-10-08 22:22:51 · 5130 阅读 · 0 评论 -
tf.abs tf.add() tf.negative()
随心一记(没什么营养)tf.abs求绝对值的tf.add()相加的 支持broadacsttf.negative()取反的理由有这样的需求 求两个tensor的相减的结果tf.add(tensor1,tf.negtive(temsor2))机器学习中的NN 实现出处:数据下载import tensorflow as tfimport numpy as np# Impo...原创 2018-10-16 09:55:27 · 2420 阅读 · 0 评论 -
tf.Varibale tf.placeholder tf.global_variables() tf.trainable_variales()讲解
tf.placeholder tf.placeholder tf.placeholder( dtype, shape=None, name=None )参数dtype是必须的shape可以没有 如果缺省则表示 可以接受符合类型的任意shape数据(这点要多注意,有时候会很方面,因为tensorlfow好多op 支持broadcast操作)tf...原创 2018-10-09 20:55:59 · 376 阅读 · 0 评论 -
tf.argmax() tf.equal() tf.nn.softmax() eval tf.random_normal tf.reduce_mean tf.reduce_sum
先将几个 函数 然后用代码测试一下tf.reduce_suminput_tensor沿着给定的尺寸缩小axis。除非keepdims是真的,否则每个条目的张量等级减少1 axis。如果keepdims为真,则缩小尺寸将保留长度为1。如果axis为None,则减小所有尺寸,并返回具有单个元素的张量。 tf.reduce_sum( input_tensor, ...原创 2018-10-10 22:21:31 · 810 阅读 · 0 评论 -
tf.group,tf.tuple,tf.control_dependencies,randomForest讲解
tf.grouptf.group( *inputs, **kwargs)该函数就是把参数中的操作作为一个组和,把这些操作作为为一个操作group的参数是一个一个operation,而不是一个list(这就是input前面加 * 的原因,注意一定是一个个的)return: 返回是一个optf.tupletf.tuple( tensors, name=N...原创 2018-10-25 10:32:23 · 431 阅读 · 0 评论 -
GBDT(Gradient boosting Decision Tree)梯度提升决策树
以下几篇博客写的很好GBDT算法原理深入解析这位大佬后面讲了推导,让我明白了这段话:Gradient Boosting是一种Boosting的方法,其与传统的Boosting的区别是,每一次的计算是为了 **减少上一次的残差(residual) **,而为了消除残差,可以在残差减少的梯度(Gradient)方向上建立一个新的模型。所以说,在Gradient Boosting中,每个新的模型的...转载 2018-10-27 11:46:44 · 1285 阅读 · 0 评论 -
tf.train.GradientDescentOptimizer 后期专门补上
__init__( learning_rate, use_locking=False, name='GradientDescent')他是一个类,下面有好多方法,这里讲一下,最后代码用到的 minimizeminizeminimize( loss, global_step=None, var_list=None, gate_grad...原创 2018-12-14 21:41:01 · 3046 阅读 · 0 评论 -
tf.estimator.EstimatorSpec讲解
作用是一个class(类),是定义在model_fn中的,并且model_fn返回的也是特的一个实例,这个实例是用来初始化Estimator类的(Ops and objects returned from a model_fn and passed to an Estimator.)具体细节Creates a validated EstimatorSpec instance.@stati...原创 2018-12-14 22:18:21 · 17284 阅读 · 0 评论 -
tf.metrics.accuracy讲解
tf.metrics.accuracytf.metrics.accuracy( labels, predictions, weights=None, metrics_collections=None, updates_collections=None, name=None)'''Args: labels: The ground truth...原创 2018-12-15 19:51:12 · 2011 阅读 · 0 评论 -
tf.estimator.Estimator讲解
tf.estimator.Estimator简单介绍是一个class 所以需要初始化,作用是用来 训练和评价 tensorflow 模型的Estimator对象包装由一个名为model_fn函数指定的模型,model_fn在给定输入和许多其他参数的情况下,返回执行训练、评估或预测所需的操作。所有输出(checkpoints, event files, etc.等)都写入model_dir或其...原创 2018-12-15 22:39:00 · 10987 阅读 · 0 评论 -
使用tf.estimator创建一个简单的神经网络(对所用到的所有知识点进行讲解)
tf.layers.densetf.layers.dense( inputs, units, activation=None, use_bias=True, kernel_initializer=None, bias_initializer=tf.zeros_initializer(), kernel_regularizer=None, ...原创 2018-12-16 18:41:47 · 612 阅读 · 0 评论 -
tf.nn.conv2d tf.nn.bias_add tf.nn.max_pool tf.nn.bias_add tf.nn.relu 实现一个CNN
温馨提示我首先会对知识点进行讲解,后面的代码会用到这里所讲的所有知识点,在看的时候,如果不懂也没事,看了后面代码就会明白tf.nn.conv2dtf.nn.conv2d( input, filter, strides, padding, use_cudnn_on_gpu=True, data_format='NHWC', dilatio...原创 2018-12-21 21:20:18 · 1395 阅读 · 1 评论 -
tf.convert_to_tensor() tf.nn.embedding_lookup tf.cast() KMeans解释和实现
tf.convert_to_tensor()tf.convert_to_tensor( value, dtype=None, name=None, preferred_dtype=None)将给定value转换为Tensor。此函数将各种类型的Python对象转换为Tensor 对象。它接受Tensor对象,numpy数组,Python列表和Python...原创 2018-10-17 21:27:55 · 1180 阅读 · 0 评论