深度学习
cnki_ok
这个作者很懒,什么都没留下…
展开
-
tensorflow函数--sparse_softmax_cross_entropy_with_logits
地址:https://github.com/tensorflow/tensorflow/blob/master/tensorflow/python/ops/nn_ops.py 1688原创 2017-04-19 18:51:21 · 4585 阅读 · 0 评论 -
tensorflow函数--sigmoid_cross_entropy_with_logits
地址:https://github.com/tensorflow/tensorflow/blob/master/tensorflow/python/ops/nn_impl.py函数定义:def sigmoid_cross_entropy_with_logits(_sentinel=None, labels=None,logits=None,原创 2017-04-19 19:55:55 · 5832 阅读 · 0 评论 -
tensorflow函数--softmax_cross_entropy_with_logits
地址:https://github.com/tensorflow/tensorflow/blob/master/tensorflow/python/ops/nn_ops.py 1589函数定义:def softmax_cross_entropy_with_logits(_sentinel=None, labels=None,logits=No原创 2017-04-19 20:11:11 · 596 阅读 · 0 评论 -
tensorflow函数--weighted_cross_entropy_with_logits
地址:https://github.com/tensorflow/tensorflow/blob/master/tensorflow/python/ops/nn_impl.py 176函数定义:defweighted_cross_entropy_with_logits(targets,logits,pos_weight,name=None):函数调用tf.nn.原创 2017-04-19 20:21:43 · 2899 阅读 · 0 评论 -
ReLu(Rectified Linear Units)激活函数
论文参考:Deep Sparse Rectifier Neural Networks (很有趣的一篇paper)起源:传统激活函数、脑神经元激活频率研究、稀疏激活性传统Sigmoid系激活函数传统神经网络中最常用的两个激活函数,Sigmoid系(Logistic-Sigmoid、Tanh-Sigmoid)被视为神经网络的核心所在。从数学上来看,非线性转载 2017-04-21 16:24:01 · 470 阅读 · 0 评论 -
tensorflow-Optimizer
GradientDescentOptimizer 梯度下降算法AdagradOptimizer自适应梯度调节器原创 2017-04-25 12:09:15 · 371 阅读 · 0 评论 -
tensorflow-模型保存与读取
模型保存:saver = tf.train.Saver()saver.save(sess, model + '/final.model', global_step=step)模型读取:saver = tf.train.Saver()saver.restore(sess, 'model.bak.1/final.model')原创 2017-04-25 12:32:18 · 481 阅读 · 0 评论 -
tensorflow学习路线
http://blog.csdn.net/hjimce/article/details/51899683转载 2017-04-25 17:50:30 · 444 阅读 · 0 评论 -
tensorflow 学习资料
源码:https://github.com/tensorflow/tensorflow教程:http://blog.csdn.net/jdbc/article/details/52402302http://wiki.jikexueyuan.com/project/tensorflow-zh/https://my.oschina.net/yilian/blog/66463原创 2017-04-25 17:55:54 · 474 阅读 · 0 评论