python如何画损失函数图_TensorFlow损失函数专题详解

本文介绍了在TensorFlow中如何利用交叉熵和均方误差作为损失函数,特别是在分类和回归问题中的应用。通过实例展示了如何使用`tf.nn.softmax_cross_entropy_with_logits`和自定义损失函数,强调了正确使用这些函数的关键点,如Softmax的处理和损失函数的选择。
摘要由CSDN通过智能技术生成

一、分类问题损失函数——交叉熵(crossentropy)

交叉熵刻画了两个概率分布之间的距离,是分类问题中使用广泛的损失函数。给定两个概率分布p和q,交叉熵刻画的是两个概率分布之间的距离:

我们可以通过Softmax回归将神经网络前向传播得到的结果变成交叉熵要求的概率分布得分。在TensorFlow中,Softmax回归的参数被去掉了,只是一个额外的处理层,将神经网络的输出变成一个概率分布。

代码实现:

import tensorflow as tf

y_ = tf.constant([[1.0, 0, 0]]) # 正确标签

y1 = tf.constant([[0.9, 0.06, 0.04]]) # 预测结果1

y2 = tf.constant([[0.5, 0.3, 0.2]]) # 预测结果2

# 以下为未经过Softmax处理的类别得分

y3 = tf.constant([[10.0, 3.0, 2.0]])

y4 = tf.constant([[5.0, 3.0, 1.0]])

# 自定义交叉熵

cross_entropy1 = -tf.reduce_mean(y_ * tf.log(tf.clip_by_value(y1, 1e-10, 1.0)))

cross_entropy2 = -tf.reduce_mean(y_ * tf.log(tf.clip_by_value(y2, 1e-10, 1.0)))

# TensorFlow提供的集成交叉熵

# 注:该操作应该施加在未经过Softmax处理的logits上,否则会产生错误结果

# labels为期望输出,且必须采用labels=y_, logits=y的形式将参数传入

cross_entropy_v2_1 = tf.nn.softmax_cross_entropy_with_logits(labels=y_, logits=y3)

cross_entropy_v2_2 = tf.nn.softmax_cross_entropy_with_logits(labels=y_, logits=y4)

sess = tf.InteractiveSession()

print('[[0.9, 0.06, 0.04]]:', cross_entropy1.eval())

print('[[0.5, 0.3, 0.2]]:', cross_entropy2.eval())

print('v2_1', cross_entropy_v2_1.eval())

print('v2_2',cro

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值