tensorflow2.0 损失函数

# 1. tf.losses.mean_squared_error:均方根误差(MSE) —— 回归问题中最常用的损失函数
# 优点是便于梯度下降,误差大时下降快,误差小时下降慢,有利于函数收敛。
# 缺点是受明显偏离正常范围的离群样本的影响较大
mse=tf.losses.mean_squared_error(y_true,y_pred)
mse=tf.reduce_mean(tf.square(y_true-y_pred))

2. tf.losses.absolute_difference:平均绝对误差(MAE) —— 想格外增强对离群样本的健壮性时使用
# 优点是其克服了 MSE 的缺点,受偏离正常范围的离群样本影响较小。
# 缺点是收敛速度比 MSE 慢,因为当误差大或小时其都保持同等速度下降,而且在某一点处还不可导,计算机求导比较困难。
maes=tf.compat.v1.losses.absolute_difference(y_true,y_pred)
maes_loss=tf.reduce_sum(maes)


# 3. tf.losses.huber_loss:Huber loss —— 集合 MSE 和 MAE 的优点,但是需要手动调超参数
# 核心思想是,检测真实值(y_true)和预测值(y_pred)之差的绝对值在超参数 δ 内时,
# 使用 MSE 来计算 loss, 在 δ 外时使用类 MAE 计算 loss。sklearn 
# 关于 huber 回归的文档中建议将 δ=1.35 以达到 95% 的有效性。
hubers=tf.compat.v1.losses.huber_loss(y_true,y_pred)
hubers_loss=tf.reduce_sum(hubers)


# 处理分类问题
# 1. tf.nn.sigmoid_cro
  • 4
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值