机器学习笔记(一):为什么要在Loss function中加入regularization项

本文探讨了在机器学习的Loss function中引入regularization项的原因。通过分析模型y=b+∑wixi,可以看到加入regularization项(如L2范数)可以使权重wi趋向于较小值,从而使函数更加平滑,降低对输入噪声的敏感性。通过调整λ可以控制函数的平滑程度。
摘要由CSDN通过智能技术生成

**

为什么要在Loss function中加入regularization项

假设模型为
  y ^ = b + ∑ w i x i \ \hat{y} = b + \sum w_ix_i  y^=b+wixi

Loss function 为
L = ∑ n [ y n − ( b + ∑ w i x i

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值