一、loss的选择
1、计算标签和预测之间的误差平方均值。‘mse’ or tf.keras.losses.MeanSquareError()
2、交叉熵损失函数计算两个概率分布之间的差异,当有两个或多个标签分类时:
‘sparse_categorical_crossentropy’ or tf.keras.losses.SparseCategoricalCrossentropy(from_logits=False)
y标签未独热编码,from_logits=False表示输出经过softmax的概率输出。
3、‘ategorical_crossentropy’ or tf.keras.losses.CategoricalCrossentropy(from_logits=False)
y标签独热编码,from_logits=False表示输出经过softmax的概率输出。
二、metric的选择
1、‘accuracy’:y_和y都是数值
2、‘categorical_accuracy’:y_和y都是独热码(概率分布)
3、‘sparse_categorical_accuracy’:y_是数值,y是独热码(概率分布)
总结:sparse表示真实标签未独热编码,logits表示预测输出未概率化即softmax输出。