- 博客(4)
- 资源 (5)
- 收藏
- 关注
原创 tf.nn.sparse_softmax_cross_entropy_with_logits &tf.nn.softmax_cross_entropy_with_logits
两个函数的区别两个函数虽然功能类似,但是其参数labels有明显区别。tf.nn.softmax_cross_entropy_with_logits()中的logits和labels的shape都是[batch_size, num_classes],而tf.nn.sparse_softmax_cross_entropy_with_logits()中的labels是稀疏表示的,是 [0,num_...
2019-01-29 02:54:31 399
原创 tensorflow中的batch normalization
1.原理公式如下:y=γ(x-μ)/σ+β其中x是输入,y是输出,μ是均值,σ是方差,γ和β是缩放(scale)、偏移(offset)系数。一般来讲,这些参数都是基于channel来做的,比如输入x是一个16*32*32*128(NWHC格式)的feature map,那么上述参数都是128维的向量。其中γ和β是可有可无的,有的话,就是一个可以学习的参数(参与前向后向),没有...
2019-01-22 04:01:26 818
原创 tf.train.saver()
将训练好的模型参数保存起来,以便以后进行验证或测试。tf里面提供模型保存的是tf.train.Saver()模块。模型保存,先要创建一个Saver对象:如saver=tf.train.Saver()在创建这个Saver对象的时候,有一个 max_to_keep 参数,这个是用来设置保存模型的个数,默认为5,即 max_to_keep=5,保存最近的5个模型。如果你想每训练一代(epo...
2019-01-22 02:23:38 731
原创 tf.layers.conv3d VS tf.nn.conv3d
二者本质无区别,输入参数的方式有区别,可以看如下的例子:import tensorflow as tfx = tf.placeholder(tf.float32,[3,5,128,128,3])filter1 = tf.placeholder(tf.float32,[3,5,3,3,10])print(x.shape)inputs = tf.layers.conv3d...
2019-01-21 01:48:14 3776
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人