tf 损失函数_【tensorflow2.0教程 常用操作集合系列4】损失函数正则化—tf2.0如何解决模型过拟合问题...

本教程介绍了如何在TensorFlow2.0中使用正则化来解决神经网络的过拟合问题。通过在损失函数中添加正则化层,实现了类似L2正则化的效果,提高了模型的泛化能力。此外,还讨论了Dropout、减少网络层数等其他防止过拟合的方法。
摘要由CSDN通过智能技术生成

在tensorflow2.0建模系列教程中,前三节我们用代码演绎了:

1如何用tf2.0进行自定义层网络的设计(add.weight)

2如何用tf2.0进行自定义模型的设计(Model)

3如何用tf2.0实现loss函数和参数调优(loss gradient optimizer)

本节系列四主要是教大家如何运用tf2.0来解决神经网络模型训练过程中常出现的过拟合问题。我们都知道模型训练出来经常出现两种问题,欠拟合和过拟合。当神经网络设计的过于复杂时,就容易发生过拟合问题。那么如何避免神经网络模型训练中的过拟合呢?像机器学习模型里在最后损失函数中运用L1、L2正则化可以吗?答案是NO。

首先这里我们再简单复习下机器学习的正则化方法:

J(θ)+ λ *R(w)

在损失函数中加入刻画模型复杂程度的指标,假设模型的损失函数为J(θ),那么我们在使用优化算法来优化损失函数的时候,不是直接优化J(θ),而是优化J(θ)+ λ *R(w)。其中R(w)是指模型的复杂程度,λ表示模型复杂损失在总损失中的比例。需要注意的是这里的θ表示的是一个神经网络中的所有参数,它包括权重和偏置。一般来说,模型复杂度只由其权重(w)来决定。而常用的来刻画模型复杂度的函数R(w)有两种,一种是L1正则化,另外是L2正则化,表达如下:

L1正则化:

L2正则化:

无论是L1正则化还是L2正则化,两者的目的都是通过限制权重的大小,来避免模型过拟合问题。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值