import tensorflow as tf from numpy.random import RandomState import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' batch_size = 8 #两个输入节点。 x = tf.placeholder(tf.float32,shape=(None,2),name='x-input') #一个输出节点。 y_ = tf.placeholder(tf.float32,shape=(None),name='y-input') #定义了一个单层的神经网络前向传播过程,这里就是简单加权和。 w1 = tf.Variable(tf.random_normal([2,1],stddev=1,seed=1)) y = tf.matmul(x,w1) #自定义损失函数 #定义预测多了和预测少了的成本。 loss_less = 10 loss_more = 1 #此处用到了tf.greater 和 tf.where 来实现选择操作,tf.greater 的输入是两个张量,此函数会比较这两个输入张量中每个元素的大小,并返回比较结果。 #当tf.greater的输入张量维度不一样时,TensorFlow会进行类似NumPy广播操作处理。 #tf.where函数有三个参数,第一个为选择条件根据,当为True时,tf.where函数选择第二个参数中的值,否则使用第三个参数中的值。 loss = tf.reduce_sum(tf.where(tf.greater(y,y_),(y - y_)*loss_more,(y_ - y)*loss_less)) train_step = tf.train.AdamOptimizer(0.001).minimize(loss) #通过随机数生成一个模拟数据集 rdm = RandomState(1) dataset_size = 128 X = rdm.rand(dataset_size,2) #设置回归的正确值为两个输入的和加上一个随机变量。之所以要加上一个随机量是为了加入不可预测的噪音, #否则不同损失函数的意义就不大了,因为不同损失函数都会在能完全预测正确的时候最低。一般来说噪音为一个均值为0的小量, #所以这里的噪音设置为-0.05~0.05的随机数。 Y = [[x1 + x2 +rdm.rand()/10.0-0.05] for (x1,x2) in X] #训练神经网络。 with tf.Session() as sess: init_op = tf.global_variables_initializer() sess.run(init_op) STEPS = 5000 for i in range(STEPS): start = (i * batch_size) % dataset_size end = min(start+batch_size,dataset_size) sess.run(train_step, feed_dict={x:X[start:end],y_:Y[start:end]}) print (sess.run(w1)) ''' 输出结果: [[1.0193471] [1.0428091]] '''
TensorFlow实战-自定义损失函数完整案例
最新推荐文章于 2022-03-02 18:22:38 发布