机器学习和深度学习中的正则化

正则化是机器学习和深度学习中防止过拟合的有效手段,通过降低泛化误差来提升模型的泛化能力。本文介绍了正则化的定义和分类,包括基于训练数据的正则化(如数据集增强和Dropout)、基于网络架构的正则化(如参数共享)以及基于误差函数和正则化项的正则化(如L1和L2范数)。早停策略作为常用的正则化方法,与L2正则化在某些情况下等价。
摘要由CSDN通过智能技术生成

    正则化是在机器学习和深度学习中作为一种抑制过拟合的比较有效的手段之一,好的算法应该具有良好的泛化能力,即不仅要在训练集数据上表现良好,推广到未知的测试数据时,也能有良好的表现。正则化是一类通过显式设计降低泛化误差来提升算法通用性的策略的统称。由于深度学习中隐藏节点众多,涉及到的参数也众多,正则化就变得尤为重要。本文从正则化定义与正则化的分类两方面来阐述这一概念。

一、正则化的定义:

   正则化被定义为对学习算法的修改,这些修改的目的在于减少泛化误差。通常来说,泛化误差的下降是以训练误差的上升为代价的, 但有些比较好的算法也能兼顾泛化误差和训练误差的良好性能。

    正则化处理可以看成是奥卡姆剃刀原则在学习算法上的应用。奥卡姆原则:当两个假说具有完全相同的解释力和预测力时,以那个较为简单的假说作为讨论依据。在机器学习中,正则化处理得到的正是更加简单的模型。

    从概率论的角度来说,许多正则化技术对应的是在模型参数上施加一定的先验分布,其作用是改变泛化误差的结构。正则化是对欠拟合和过拟合的折中,在不过度增加偏差的情况下显著减少方差。正则化能够改变数据分布,让通过模型得到的数据分布尽可能和真实的数据生成过程相匹配。

    机器学习的任务是拟合出一个从输入x到输出y的分布, 拟合的过程使用的是使期望风险函数最小化的过程,正则化处理使待最小化的函数中既包含结构化的误差函数,也包含人为引入的正则化项。由于未知分布的期望风险不能直接求解,因而需要引入训练数据集,以在训练数据集上计算出的经验风险来近似期望风险, 并通过经验风险最小化实现期望风险最小化。

    以上就是学习算法的整体流程,

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值