机器学习(一)—— 过拟合(Overfitting)、正则化与损失函数

什么是过拟合

  • 过拟合:经训练出的模型在训练集上表现很好,可能将训练集的一些特点当做所有样本都具有的特点,导致在新的样本上的误差变大,泛化能力差。

过拟合的原因:

  1. 网络的学习能力过好
  2. 数据样本过少
  • 欠拟合:对训练集的一般性质尚未学好

如何解决过拟合?

  • 方法一:增加数据量
  • 方法二:运用正则化regularization(L1,L2,…)

正则化(regularization)

W表示权重,x表示输入,y表示输出
real y表示真实输出,λ表示系数

正则化cost函数
原始损失函数(无正则化)设为C
L1正则化cost=C+λ ∑ abs(w)
L2正则化cost=C+λ ∑w²

L3,L4正则化以此类推

Dropout正则化(丢弃正则化)

所谓dropout(丢弃),就是去除一些神经元之间的连接。

这样做对于解决过拟合问题有什么好处呢:

  1. 丢弃一些连接,意味着网络规模减小
  2. 随机丢弃,不会偏重某些权重,类似 L2正则化

其涉及的相关概念:

  1. 保留概率 keep-prob :描述一个隐藏层保留神经元(连接)的概率,作用是为了生成随机矩阵
  2. 反向随机失活 inverted dropout:用来实现dropout

损失函数


参考原文链接:
版权声明:本文为博主原创文章,遵循 CC 4.0 by-sa 版权协议,转载请附上原文出处链接和本声明。
本文链接: https://blog.csdn.net/chkay399/article/details/81878157


在上面正则化中提到了损失函数的概念,损失函数是用来估量训练出的模型的预测值与真实值之间的差距
接下来介绍一下机器学习里常用的的损失函数:

  • 统一使用Y来表示真实数据集,X表示输入数据集合,f(X)表示预测值集合
  • y表示一条真实数据,x表示一条输入数据

平方损失函数(最小二乘法)

  • 使用场景:线性回归
    在这里插入图片描述

对数损失函数

  • 使用场景:逻辑回归
  • 样本预测值和实际值的误差符合高斯分布,使用极大似然估计的方法,取对数得到损失函数:
    在这里插入图片描述

指数损失函数

  • 使用场景:Boosting算法中较为常见

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 正则化是一种用于限制模型复杂度的正则化技术,它使学习算法更健壮,更稳定,更可靠。它通过向模型添加附加项(正则化项),以降低模型复杂度。正则化项可以是L1正则化(Lasso正则化)或L2正则化(Ridge正则化)等。 ### 回答2: 在机器学习中,正则化是一种通过在模型的损失函数中引入惩罚项来避免过的技术。其原理是通过约束模型的复杂度,使得模型更加简单而具有较好的泛化能力。 正则化主要有两种形式:L1正则化和L2正则化。L1正则化引入了模型参数的绝对值之和作为惩罚项,即通过最小化损失函数和正则化项的和来寻找最优解。L2正则化则引入了模型参数的平方和作为惩罚项,即通过最小化损失函数和正则化项的和来寻找最优解。 正则化的原理是通过对模型参数进行约束,可以使得某些参数趋近于0,从而实现特征选择和降低模型复杂度的目的。L1正则化倾向于产生稀疏解,即只有部分参数非0,从而实现特征选择,有助于模型的解释性。而L2正则化则倾向于参数趋近于0而非完全为0,可以降低模型的复杂度,并避免过。 正则化可以有效地控制模型的复杂度,在训练过程中通过平衡程度和模型复杂度来选择最优解。当正则化力度较大时,模型会更加关注减小正则化项,从而更加趋向于简单的模型。当正则化力度较小时,模型会更加关注训练数据,可能导致过。 总之,正则化是机器学习中用于避免过、提高模型泛化能力的重要技术。通过限制模型的复杂度,正则化可以提高模型的性能和稳定性。 ### 回答3: 机器学习中的正则化是一种通过添加惩罚项来控制模型复杂度的技术。正则化的目的是防止模型过overfitting),即在训练数据上表现优秀但在新数据上表现较差的情况。 正则化的原理是在模型的损失函数中,加入一个额外的惩罚项,以限制模型参数的取值范围。这个惩罚项可以是L1正则化(L1 regularization)或者L2正则化(L2 regularization)。 L1正则化通过在损失函数中加入模型参数的绝对值之和乘以一个超参数lambda的惩罚项,使得模型参数趋向于稀疏化。通过L1正则化,可以使得模型自动选择重要的特征,并且减少不相关或冗余特征的影响。 L2正则化通过在损失函数中加入模型参数的平方之和乘以一个超参数lambda的惩罚项,使得模型参数的取值更加平滑。通过L2正则化,可以减小模型参数的大小,并且降低模型对训练数据中的噪声的敏感性。 正则化的原理是在训练模型时,通过调整惩罚项的权重,平衡训练数据和控制模型复杂度之间的关系。正则化在一定程度上约束了模型的自由度,使得模型更加稳定、泛化能力更强,从而能够更好地适应新数据。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值