NLP(16): 过拟合和正则

本文介绍了正则化在防止过拟合中的作用,特别是L2-Norm下梯度下降的影响。讨论了模型复杂度与过拟合的关系,强调泛化能力的重要性,并提供了选择模型复杂度的策略。同时,对比了L1和L2正则化的差异,L1产生稀疏解,而L2不会。
摘要由CSDN通过智能技术生成

1、L2-Norm

正则的意义:不要让损失函数完全等于0,损失函数完全等于0时,在训练集上表现太好会导致过拟合现象产生,且对于逻辑回归,参数w的值会趋于正无穷。加入正则项,可以使参数的w变小,使其模型生成的拟合曲线变得平滑。

  • λ \lambda λ:超参数, weighting factor
    超参数大的时候,w会变小
    超参数很小的时候,w会变得很大
  • L2-norm的值取参数二范式的平方

在这里插入图片描述
对于超参数的选择,一般使用交叉验证

L2-Norm下的梯度下降

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值