机器学习正则化ppt_机器学习中的正则化(Regularization)

本文介绍了机器学习中的正则化,旨在减少测试误差并提高模型泛化能力。主要内容包括L1和L2范数正则化的概念、区别,以及训练集增强、Dropout和Early Stopping等正则化技术的原理和作用。正则化通过限制模型复杂度,防止过拟合,提升模型在新数据上的表现。
摘要由CSDN通过智能技术生成

文中部分图片摘自吴恩达deeplearning课程的作业,代码及课件在我的github:

​DeepLearning 课件及作业

关于本篇正则化的具体路径是:

​正则化作业

正则化的概念及原因

简单来说,正则化是一种为了减小测试误差的行为(有时候会增加训练误差)。我们在构造机器学习模型时,最终目的是让模型在面对新数据的时候,可以有很好的表现。当你用比较复杂的模型比如神经网络,去拟合数据时,很容易出现过拟合现象(训练集表现很好,测试集表现较差),这会导致模型的泛化能力下降,这时候,我们就需要使用正则化,降低模型的复杂度。

正则化的几种常用方法

L1 & L2范数

首先介绍一下范数的定义,假设

是一个向量,它的

范数定义:

在目标函数后面添加一个系数的“惩罚项”是正则化的常用方式,为了防止系数过大从而让模型变得复杂。在加了正则化项之后的目标函数为:

式中,

是一个常数,

为样本个数,

是一个超参数,用于控

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值