机器学习正则化

机器学习正则化笔记概要

正则化(regularization)是用于抑制过拟合的方法的统称,它通过动态调整估计参数的取值来降低模型的复杂度,以偏差的增加为代价来换取方差的下降。

在线性回归里,最常见的正则化方式就是在损失函数(loss function)中添加正则化项(regularizer),而添加的正则化项 R(λ) 往往是待估计参数的 p- 范数。将均方误差和参数的范数之和作为一个整体来进行约束优化,相当于额外添加了一重关于参数的限制条件,避免大量参数同时出现较大的取值。由于正则化的作用通常是让参数估计值的幅度下降,因此在统计学中它也被称为系数收缩方法(shrinkage method)。
在这里插入图片描述
总结起来:利用贝叶斯概率来确定最优参数的步骤可以归纳如下:求解的对象是已知训练数据时,测试数据的条件概率 p(y∗|y),要计算这个条件概率就要对所有未知的参数和超参数进行积分,以消除这些变量。

而在已知的数据和未知的超参数之间搭起一座桥梁的,正是待估计的参数 w,它将 p(y∗|y) 的求解分解成两部分,一部分是根据已知数据推断参数,另一部分是根据参数推断未知数据。

而在根据已知数据推断参数时,又要先推断超参数,再利用超参数和数据一块儿推断参数。对超参数的推断则可以通过边际似然概率简化。

正则化的作用是抑制过拟合,通过增加偏差来降低方差,提升模型的泛化性能;

正则化项的作用是对解空间添加约束,在约束范围内寻找产生最小误差的系数;

频率视角下的正则化与贝叶斯视角下的边际化作用相同;

边际化对未知的参数和超参数进行积分以消除它们的影响,天然具有模型选择的功能。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值