Tensorflow中的损失函数loss汇总

本文总结了Tensorflow中用于回归和分类任务的常见损失函数,包括均方根误差(MSE)、平均绝对误差(MAE)、Huber Loss、sigmoid和softmax交叉熵等,并介绍了自定义损失函数的方法。对于回归问题,MSE是常用选择,但易受离群值影响;MAE则对离群值更鲁棒;Huber Loss结合了两者的优点。在分类问题中,二分类通常使用sigmoid交叉熵,多分类则选择softmax交叉熵,且提供了带权重的sigmoid交叉熵以应对样本不平衡问题。
摘要由CSDN通过智能技术生成

回归和分类是监督学习中的两个大类。自学过程中,阅读别人代码时经常看到不同种类的损失函数,到底 Tensorflow 中有多少自带的损失函数呢,什么情况下使用什么样的损失函数?这次就来汇总介绍一下。

一、处理回归问题

1.tf.losses.mean_squared_error:均方根误差(MSE) —— 回归问题中最常用的损失函数

优点是便于梯度下降,误差大时下降快,误差小时下降慢,有利于函数收敛。
缺点是受明显偏离正常范围的离群样本的影响较大

Tensorflow中集成的函数:

mse = tf.losses.mean_squared_error(y_true, y_pred)

利用Tensorflow基础函数手工实现:

mse = tf.reduce_mean(tf.square(y_true - y_pred))
2.tf.losses.absolute_difference:平均绝对误差(MAE) —— 想格外增强对离群样本的健壮性时使用

优点是其克服了 MSE 的缺点,受偏离正常范围的离群样本影响较小
缺点是收敛速度比 MSE 慢,因为当误差大或小时其都保持同等速度下降,而且在某一点处还不可导,计算机求导比

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值