学的有点心态崩了。真是觉得人与人的差距比人与x的差距还大,大神们都在调参改超量,我连读个csv都调不出来,哎难受
学习率
学习率 learning_rate:学习率大了振荡不收敛,学习率小了收敛速度慢
改进:
指数衰减学习率
可以先用较大的学习率来快速得到一个较优解,然后随迭代逐步减小学习率,使模型在训练后期稳定。
衰减后的学习率 衰减后的学习率= 初始学习率*衰减率 衰减率 (当前轮数当前轮数/多少轮衰减一次) 多少轮衰减一次)
learning_rate=learning_rate_base*learning_rate_decay**
(epoch/learning_rate_step)
激活函数
Sigmoid函数
Tanh函数
Relu函数 函数
Leaky Relu函数
tf.where()
a=tf.constant([1,2,3,1,1])
b=tf.constant([0,1,3,4,5])
c=tf.where(tf.equal(a,1)) # 返回a 中等于1的位置索引 的位置索引
d=tf.where(tf.greater(a,b),a,b) # 若a>b ,返回a对应的位置上的数,否 对应的位置上的数,否
则返回 则返回b对应的位置上的数 对应的位置上的数
print("c :",c)
print("d:",d)
输出:
c: tf.Tensor(
2019-10-16 16:06:00.012879: I tensorflow/core/platform/cpu_