![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
TensorFlow
大笨熊。。。
多看,多记,多学。
展开
-
深度学习模型中的学习率调整
非常关键------------------深度学习模型中的学习率调整学习率对于深度学习是一个重要的超参数,它控制着基于损失梯度调整神经网络权值的速度,大多数优化算法(SGD、RMSprop、Adam)对其都有所涉及。学习率越小,损失梯度下降的速度越慢,收敛的时间更长,如公式所示:new_weight= existing_weight — learning_rate * gradient(新权值 = 当前权值 – 学习率 × 梯度) 如果学习率过小,梯度下降很慢,如果学...转载 2020-06-29 10:24:12 · 3646 阅读 · 0 评论 -
运行出现DuplicateFlagError:解决方法
DuplicateFlagError: The flag 'dataset' is defined twice. First from train.py, Second from train.py. Description from first occurrence: Dataset string.当出现以上这种报错时候,可以采用以下方法,亲测有效。清除控制台重新启动Restart...原创 2020-05-06 22:02:14 · 2315 阅读 · 0 评论 -
源码因为Tensorflow版本问题报错解决办法
当我们的项目在Tensorflow 1.0 的环境下写的,放在Tensorflow 2.0 环境下运行时出现报错,可以考虑下面的几种方法,绝对有效,亲测哦!方法1:最直接的就是卸载当前的Tensorflow 2.0 版本,安装Tensorflow 1.0 版本;方法2 :直接引入Tensorflow库时,改为以下方式:import tensorflow.compat.v1 as tf...原创 2020-05-06 21:57:25 · 965 阅读 · 0 评论 -
tf.squeeze()的解析
squeeze( input, axis=None, name=None, squeeze_dims=None)该函数返回一个张量,这个张量是将原始input中所有维度为1的那些维都删掉的结果axis可以用来指定要删掉的为1的维度,此处要注意指定的维度必须确保其是1,否则会报错。>>>y = tf.squeeze(inputs, [...转载 2020-03-29 19:46:12 · 1529 阅读 · 0 评论 -
tf.nn.embedding_lookup函数的用法
本文转载于以下博客地址:https://www.cnblogs.com/gaofighting/p/9625868.html如有冒犯,还望谅解!tf.nn.embedding_lookup函数的用法主要是选取一个张量里面索引对应的元素。tf.nn.embedding_lookup(params, ids):params可以是张量也可以是数组等,id就是对应的索引,其他的参数不介绍。例如...转载 2019-06-08 20:16:09 · 593 阅读 · 0 评论 -
Adam优化算法详细解析
本文转载于以下博客地址:http://www.atyun.com/2257.html如有冒犯,还望谅解!Adam优化算法是一种对随机梯度下降法的扩展,最近在计算机视觉和自然语言处理中广泛应用于深度学习应用。在引入该算法时,OpenAI的Diederik Kingma和多伦多大学的Jimmy Ba在他们的2015 ICLR发表了一篇名为“Adam: A Method for Stochast...转载 2019-05-21 18:09:51 · 103083 阅读 · 7 评论 -
梯度下降算法详细解析及代码实现
本文转载于以下博客地址: https://www.jianshu.com/p/c7e642877b0e如有冒犯,还望谅解!梯度下降的场景假设 梯度 梯度下降算法的数学解释 梯度下降算法的实例 梯度下降算法的实现 Further reading本文将从一个下山的场景开始,先提出梯度下降算法的基本思想,进而从数学上解释梯度下降算法的原理,最后实现一个简单的梯度下降算法的实例!...转载 2019-05-21 16:48:09 · 9015 阅读 · 1 评论 -
tf.nn.sigmoid_cross_entropy_with_logits详解
本文转载于以下博客地址:https://www.cnblogs.com/bonelee/p/8995898.html如有冒犯,还望谅解!tf.nn.sigmoid_cross_entropy_with_logits(_sentinel=None,labels=None, logits=None, name=None)sigmoid_cross_entropy_with_logits详解...转载 2019-05-11 15:07:26 · 34169 阅读 · 1 评论 -
tf.cast()函数解析
本文转载于以下博客地址:https://blog.csdn.net/ddy_sweety/article/details/80408000如有冒犯,还望谅解!tf.cast()cast( x, dtype, name=None)————————————————————————————————————————————————————————将x的数据格式...转载 2019-05-11 14:57:32 · 5916 阅读 · 0 评论 -
模型评估之混淆矩阵(confusion_matrix)含义及Python代码实现
本文转载于以下博客地址:https://baijiahao.baidu.com/s?id=1619821729031070174&wfr=spider&for=pc如有冒犯,还望谅解!在前面的文章中我们讲到了回归模型和分类模型的评估指标,区分了准确率和精确率的区别,并且比较了精确率和召回率内在的联系。本篇文章我们再来学习另外一个评估方法,即混淆矩阵(confusion_ma...转载 2019-05-11 14:51:26 · 38027 阅读 · 2 评论 -
tf.argmax函数讲解
本文转载于以下博客地址:https://blog.csdn.net/u013580539/article/details/79339250如有冒犯,还望谅解!关于tf.argmax,我看到网上的资料有些杂乱难以理解,所以写这篇文章。在tf.argmax( , )中有两个参数,第一个参数是矩阵,第二个参数是0或者1。0表示的是按列比较返回最大值的索引,1表示按行比较返回最大值的索引。下面...转载 2019-05-11 14:42:36 · 1429 阅读 · 0 评论 -
logits的含义以及tf.nn.softmax_cross_entropy_with_logits函数分析
本文转载于其他博客,如有冒犯还望谅解!1. 什么是logits?说到Logits,首先要弄明白什么是Odds?在英文里,Odds的本意是指几率、可能性。它和我们常说的概率又有什么区别呢?在统计学里,概率(Probability)描述的是某事件A出现的次数与所有事件出现的次数之比:P(A) = 发生事件A的次数/所有事件的次数。(公式1)很显然,概率 P...转载 2019-05-11 11:41:11 · 993 阅读 · 1 评论 -
TensorFlow实战 ——tf.nn.nce_loss()函数解析
本文转载于简书,如有冒犯,请联系,望见谅!转自地址:https://www.jianshu.com/p/fab82fa53e16先看看tensorflow的nce-loss的API: def nce_loss(weights, biases, inputs, labels, num_sampled, num_classes, num_true=1, sampled...转载 2019-05-07 16:05:09 · 2077 阅读 · 0 评论