13.Tensorflow2.0中的误差计算

1. 均方误差MSE

在这里插入图片描述
在这里插入图片描述

2. 交叉熵损失Cross Entropy Loss

2.1. 信息熵/信息增益

在这里插入图片描述

2.2. Cross Entropy

在这里插入图片描述

2.3. Classification

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2.4. Why not MSE?

在这里插入图片描述
在这里插入图片描述

2.5. svm损失函数Hinge Loss

3. logits→CrossEntropy

在这里插入图片描述

4. Numerical Stability

import tensorflow as tf
import os

os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'

x = tf.random.normal([1,784])
w = tf.random.normal([784,2])
b = tf.zeros(2)
logits = x@w+b
print("前向传播结果:",logits.numpy())

prob = tf.math.softmax(logits, axis=1)
print("经过softmax数值为:",prob.numpy())

loss = tf.losses.categorical_crossentropy([0,1],logits,from_logits=True)
print("交叉熵数值为:{0}".format(loss))

5. 需要全套课程视频+PPT+代码资源可以私聊我

  • 方式1:CSDN私信我!
  • 方式2:QQ邮箱:594042358@qq.com或者直接加我QQ: 594042358!
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值