今天在验证 tf.nn.sigmoid_cross_entropy_with_logits() 函数使用方法的时候,发现这个问题,原因是
tf.nn.sigmoid_cross_entropy_with_logits()中有一个参数我已经修改成 tf.float64() 但是另一个没有修改
检查一下出现问题的代码中输入的参数类型是否一致。
# 定义tf.nn.sigmoid_cross_entropy_with_logits()
import numpy as np
import tensorflow as tf
# 直接定义sigmoid激活函数
def sigmoid(x):
return 1/(1 + np.exp(-x))
Raw_data = np.array([1, 1, 6, 2])
label = np.array([0, 0, 1, 0])
my_sigmoid = sigmoid(Raw_data)
print("原始数据经过sigmoid之后输出的结果是:", my_sigmoid)
# 定义交叉熵函数
def cross_entropy_error(t,y):
delta = 1e-7
return -np.sum(t*np.log(y+delta))
# 将得到的softmax和label交叉熵计算 交叉熵之后前者表示对应的标签 后者表示对应的softmax输出的数据
my_cross_entropy_error = cross_entropy_error(label, my_sigmoid)
print("the result of my_cross_entropy_error difined by myself is: ", my_cross_entropy_error)
Raw_data = tf.convert_to_tensor(Raw_data,dtype=tf.float64)
# 当时没有进行修改
label = tf.convert_to_tensor(label,dtype=tf.float64)
tf_result = tf.nn.sigmoid_cross_entropy_with_logits(labels=label,logits=Raw_data)
sess = tf.Session()
print("the result of sigmoid_cross_entropy_with_logits difined by tensorflow is: ", sess.run(tf_result))