tensorflow
小杨算法屋
这个作者很懒,什么都没留下…
展开
-
tf.cast()的用法
定义方式:def cast(x, dtype, name=None)解释:修改张量数据的数据类型x:待修改数据类型的数据dtype:目标数据类型name:可选参数,即定义操作的名称cast在tensorflow的代码位置:tensorflow/python/ops/math_ops.py具体的定义如下所示:def cast(x, dtype, name=No...原创 2019-12-19 10:35:23 · 2908 阅读 · 0 评论 -
tensorflow----实现两数相加
例子1:# coding:utf-8import tensorflow as tfa = tf.constant([1.0, 2.0])b = tf.constant([3.0, 4.0])result = a + bprint(result)with tf.Session() as sess: print(sess.run(result))运行结果如下所示:...原创 2019-08-21 18:21:37 · 4021 阅读 · 0 评论 -
ValueError: Cannot feed value of shape (64, 2) for Tensor 'input_y:0', which has shape '(?, 3)'
当我运行text_cnn的深度学习代码时,遇到了下面的问题:ValueError: Cannot feed value of shape (64, 2) for Tensor 'input_y:0', which has shape '(?, 3)'这个问题是,你设置的y输入的维度是3,但是喂入的数据时2,简单的解释为,我输入的数据时二分类数据,但是我的代码为三分类,所以只需要对代码中的...原创 2018-11-05 11:37:07 · 15865 阅读 · 10 评论 -
tf.nn.dropout()的用法
tf.nn.dropout()是tensorflow里面为了防止或减轻过拟合而使用的函数,它一般用在全连接层Dropout就是在不同的训练过程中随机扔掉一部分神经元。也就是让某个神经元的激活值以一定的概率p,让其停止工作,这次训练过程中不更新权值,也不参加神经网络的计算。但是它的权重得保留下来(只是暂时不更新而已),因为下次样本输入时它可能又得工作了tf.nn.dropout函数说明...原创 2018-09-30 16:39:21 · 61707 阅读 · 18 评论 -
tf.nn.embedding_lookup()的用法
函数:tf.nn.embedding_lookup( params, ids, partition_strategy='mod', name=None, validate_indices=True, max_...原创 2018-09-30 16:17:07 · 32441 阅读 · 2 评论 -
tf.nn.l2_loss()的用法
l2_loss()这个函数的作用是利用L2范数来计算张量的误差值,但是没有开发并且只取L2范数的值的一半函数:tf.nn.l2_loss( t, name=None)参数:t:一个张量(tensor),类型可以为:half, bfloat16, float32, float64name:op的一个名字,即为这个操作取个名字作用:不使用sqrt计算张量...原创 2018-09-30 15:53:52 · 34896 阅读 · 5 评论 -
tf.contrib.crf.crf_log_likelihood()的用法
函数:tf.contrib.crf.crf_log_likelihood(inputs, tag_indices, sequence_lengths, transition_params=None)在一个条件随机场里面计算标签序列的log-likelihood,函数的目的是使用crf来计算损失,里面用到最大似然估计的优化方法参数:inputs: 一个形状为[batch_size,...原创 2018-09-30 14:59:28 · 7616 阅读 · 0 评论 -
tensorboard的使用
作用:在复杂的问题中,网络往往都是很复杂的,为了方便调试参数以及调整网络结构,我们需要将计算图可视化出来,以便能够更好的进行下一步的决策。tensorboard是可视化tensorflow模型的训练过程的工具,在安装tensorflow的同时就已经安装好了tensorboard。tensorboard能够有效地展示tensorflow在运行过程中的计算图、各种指标随着时间的变化趋势以及训练中使...原创 2018-09-26 16:15:45 · 26881 阅读 · 5 评论 -
CNN文本分类
文本分类是NLP领域的一个重要的子任务,文本分类的目标是自动的将文本打上已经定义好的标签,常见的文本分类任务有:垃圾邮件过滤、情感分析、新闻分类等等。代码是来自https://github.com/gaussic/text-classification-cnn-rnn大家可以自行下载阅读,下面仅仅是自己对代码的一个解读,仅此而已,若有不合适的地方,希望大家多多指出,共同交流1、任务...原创 2018-09-20 08:33:46 · 7905 阅读 · 10 评论 -
tensorflow系列学习-1
1)使用图来表示计算任务2)在被称之为会话的上下文中执行图3)使用tensor表示数据4)通过变量维护状态5)使用feed和fetch可以为任意的操作赋值或者从其中获取数据tensoflow是一个编程系统,使用图表示计算任务,图中的节点称之为op,一个op获得0个或多个tensor,执行计算,产生0个或多个tensor,tensor看作是一个n维的数组或列表,图必须在会话里被启动#...原创 2018-09-03 19:31:09 · 209 阅读 · 0 评论 -
tf.reduce_max 例子
1、找出最大值import tensorflow as tfmax_value = tf.reduce_max([1, 3, 2])with tf.Session() as sess: max_value = sess.run(max_value) print(max_value) 输出结果:3 2、找出列上的最大值import tensorflow...原创 2018-08-21 10:44:04 · 10782 阅读 · 0 评论 -
tf.layers.dense()的用法
dense :全连接层 相当于添加一个层函数如下: tf.layers.dense( inputs, units, activation=None, use_bias=True, kernel_initializer=None, ##卷积核的初始化器 bias_initializer=tf.zeros_initialize...原创 2018-08-17 11:21:39 · 227728 阅读 · 7 评论 -
tensorflow之tf.dynamic_rnn()的理解
最近在看基于LSTM的的NER的任务,但是对padding有一些不解的地方问题描述:实体标签的数量:7,分别用数字1、2、3、4、5、6、7表示,因为在padding部分的标签补的是0,所以魏从0开始表示,那么padding之后标签的为0、1、2、3、4、5、6、7,变成8个了,一直很困惑第8类标签到底是什么?但在测试的语料中也未找到第8类标签,大胆的猜测是因为padding部分并未加入计...原创 2018-07-27 09:46:00 · 2059 阅读 · 0 评论 -
tf.get_variable函数的理解
之前一直理解的就是get_variable只是定义tensor的维度,并不给出值,但是后来写了程序运行一下才发现,不仅指定了维度,并且随机进行了初始化,代码如下:#coding:utf-8import tensorflow as tfpos1_embedding = tf.get_variable('pos1_embedding', [2, 5])with tf.Session() ...原创 2018-08-03 11:12:55 · 3870 阅读 · 0 评论 -
shuffle与permutation的区别
shuffle与permutation的区别函数shuffle与permutation都是对原来的数组进行重新洗牌(即随机打乱原来的元素顺序);区别在于shuffle直接在原来的数组上进行操作,改变原来数组的顺序,无返回值。而permutation不直接在原来的数组上进行操作,而是返回一个新的打乱顺序的数组,并不改变原来的数组。示例: a = np.arange(12) p...转载 2018-08-09 15:29:05 · 1027 阅读 · 0 评论