tensorflow学习(4):损失函数+优化方法

本文详细介绍了在TensorFlow中如何使用交叉熵和均方误差作为损失函数,适用于分类和回归问题。此外,文章还讲解了优化方法,包括指数衰减学习率、正则化以及滑动平均模型,帮助提升模型的训练效果和泛化能力。
摘要由CSDN通过智能技术生成

一、损失函数

提起损失函数,大概最常用的就是交叉熵和均方误差了。
1.交叉熵损失函数:针对分类问题
在这里插入图片描述
假设某个样例的正确答案是(1,0,0),预测值是[0.5,0.4,0.1]
那么其交叉熵为H((1,0,0),(0.5,0.4,0.1))=-(1log0.5+0log0.4+0*log0.1)=0.3
所以,在代码实现时如下:假设label为y,预测值为y’,则交叉熵为
cross_entropy = -tf.reduce_mean(y * log(y’))
这里的乘法是对应元素相乘,reduce_mean函数时求平均值

另外,在得到预测值过程中,往往采用softmax,所以cross_entropy一般和softmax连用,有如下已经封装好的损失函数:
cross_entropy = tf.nn.softmax_cross_entropy_with_logits(labels=y,logits=y’)

2.均方差(MSE):针对回归问题
在这里插入图片描述
mse = tf.reduce_mean(tf.square(y-y’))

3.除了以上两个现成的函数,我们还可以自定义函数,如分段函数:

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值