![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
tensorflow
Lord_sh
种一棵树最好的时间是十年前,其次是现在
展开
-
tensorflow 分布式训练
一文说清楚Tensorflow分布式训练必备知识 - 杨旭东的文章 - 知乎 https://zhuanlan.zhihu.com/p/56991108原创 2021-01-05 11:45:25 · 207 阅读 · 0 评论 -
tensorflow 梯度freeze整理
面试的时候问了如何freeze 梯度,感觉自己tensorflow梯度处理这块很不熟,整理一下:optimizer.minimize函数是结合了两个函数:1. compute_gradients 2. apply_gradientscompute_gradients主要传入 loss和trainable_variables(这里就可以把freeze的参数过滤掉)apply_gradients 传入 (grads_and_vars)的pair listtf.losses.add..原创 2020-12-28 18:45:26 · 434 阅读 · 1 评论 -
tf.nn.fixed_unigram_candidate_sampler解释
最近看GraphSage的代码,发现了一个函数tf.nn.fixed_unigram_candidate_sampler理解这个函数的难点主要在:num_true、range_max, 这两个参数上,直接上代码吧import tensorflow as tfdef test1(): vec = tf.constant([[1, 2, 3, 4, 6]], dtype=tf.int64) # vec = tf.reshape(vec, [-1, 1]) """ .原创 2020-10-28 10:06:09 · 755 阅读 · 0 评论 -
tensorflow-server
Tensorflow Serving的从0到1 - 高清的文章 - 知乎 https://zhuanlan.zhihu.com/p/80658574原创 2020-03-21 18:38:27 · 278 阅读 · 0 评论 -
机器学习优化算法
这几天做一个推荐的项目,优化方法突然很重要,自己一直也没重视,知乎了几篇机器学习界有一群炼丹师,他们每天的日常是:拿来药材(数据),架起八卦炉(模型),点着六味真火(优化算法),就摇着蒲扇等着丹药出炉了。不过,当过厨子的都知道,同样的食材,同样的菜谱,但火候不一样了,这出来的口味可是千差万别。火小了夹生,火大了易糊,火不匀则半生半糊。作者:Juliuszh链接...原创 2020-03-13 11:40:31 · 207 阅读 · 0 评论 -
自定义tensorflow optimizer
https://www.ctolib.com/luochuwei-Custom-Optimizer-in-TensorFlow.html原创 2020-03-13 14:00:25 · 945 阅读 · 0 评论 -
tensorflow SessionRunHook MonitoredTrainingSession
Hook? tf.train.SessionRunHook()介绍【精】https://blog.csdn.net/mrr1ght/article/details/81011280tf.train.MonitoredTrainingSession()解析【精】https://blog.csdn.net/mrr1ght/article/details/81006343cla...原创 2020-03-11 17:26:35 · 346 阅读 · 0 评论 -
[tensorflow]softmax_cross_entropy_with_logits 及其···v2 和 sparse_softmax_cross_entropy_with_logits 异同
1、共同点三者功能都是先计算输入 logits 的 softmax 分类,再计算与输入 labels 之间的交叉熵,最终返回的交叉熵结果相同2、不同点(1)softmax_cross_entropy_with_logits已经弃用,相同功能被 softmax_cross_entropy_with_logits_v2 取代(2)softmax_cross_entropy_with...转载 2019-07-13 12:21:11 · 199 阅读 · 0 评论 -
[tensorflow] placeholder、 Variable、Tensor的 reuse、get_by_name问题以及不同
https://cloud.tencent.com/developer/ask/142809/answer/250540你可以通过在名称后添加“/”来强制重用范围,即: tf.variable_scope("foo/", reuse=True):但是,这不会解决你的问题。在变量的情况下,调用tf.Variable将始终创建一个新变量,而调用tf.get_variable将重用它但是...原创 2019-07-11 19:13:17 · 431 阅读 · 0 评论