tensorflow
清舞sunny
这个作者很懒,什么都没留下…
展开
-
tensorflow cross_entropy 四种交叉熵计算函数
Tensorflow交叉熵函数:cross_entropy以下交叉熵计算函数输入中的logits都不是softmax或sigmoid的输出,因为它在函数内部进行了sigmoid或softmax操作tf.nn.sigmoid_cross_entropy_with_logits(_sentinel=None, labels=None, logits=None, name=None)_s原创 2017-04-03 15:36:22 · 8560 阅读 · 0 评论 -
Tensorflow四种交叉熵函数计算公式:tf.nn.cross_entropy
Tensorflow交叉熵函数:cross_entropy注意:tensorflow交叉熵计算函数输入中的logits都不是softmax或sigmoid的输出,而是softmax或sigmoid函数的输入,因为它在函数内部进行sigmoid或softmax操作 tf.nn.sigmoid_cross_entropy_with_logits(_sentinel=None,label原创 2017-06-06 17:18:54 · 45092 阅读 · 8 评论 -
TensorFlow 模型的保存与恢复
1、在一个文件夹内保存和恢复单个模型saver = tf.train.Saver()sess = tf.Session()# 保存saver.save(sess,save_path) # 例如save_path='./model/ckpt'# 恢复saver.restore(sess,save_path) # save_path 与保存时的save_path相同# 使用model = Mode...原创 2018-03-17 20:31:08 · 684 阅读 · 0 评论 -
variable_scope 和name_scope
1、variable_scope'''variable_scope 主要是给variable_name加前缀,也可以给op_name加前缀'''import tensorflow as tfdef f1(): # tf.variable_scope().reuse默认为False # 当reuse==False with tf.variable_scope('var'): v = tf.get_...原创 2018-03-17 22:02:37 · 324 阅读 · 0 评论 -
深度学习中的参数优化方法
一、梯度下降法: 学习率1、批量梯度下降法每次更新需要在整个数据集上求出优点:如果loss是个凸函数,则批量梯度下降会在全局最小值处收敛;若loss非凸,则会收敛于局部最小值缺点:1)更新速度慢 2)不能在线训练模型 3)如果数据集很大,内存无法容纳,则无法使用此方法训练模型 4)若loss非凸,...原创 2018-08-16 19:54:51 · 5594 阅读 · 0 评论