【TensorFlow】常用的损失函数及其TensorFlow实现

本文详细介绍了TensorFlow中常用的损失函数,包括回归问题的L2、L1正则和Pseudo-Huber损失函数,以及分类问题的Hinge、交叉熵损失函数等。并使用matplotlib展示了这些损失函数的图像,帮助理解其特性和应用场景。
摘要由CSDN通过智能技术生成

1 损失函数

定义:将随机事件或其有关随机变量的取值映射为非负实数以表示该随机事件的“风险”或“损失”的函数。
应用:作为学习准则与优化问题相联系,即通过最小化损失函数求解和评估模型。
分类:回归问题、分类问题

2 回归问题的损失函数

首先创建预测序列和目标序列作为张量
预测序列是(-1,1)的等差数列,目标值为0

sess = tf.Session()
x_vals = tf.linspace(-1.,1.,500)
target = tf.constant(0.)

2.1 L2正则损失函数

L = ∑ i = 1 n ( t a r g e t i − f ( x i ) ) 2 (1) L=\sum_{i=1}^{n}(target_i-f(x_i))^2\tag{1} L=i=1n(targetif(xi))2(1)
L2正则损失函数又称欧拉损失函数,是预测值 f ( x i

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值