斯坦福大学公开课机器学习课程(Andrew Ng)九经验风险最小化

本文详细介绍了斯坦福大学公开课机器学习课程中的经验风险最小化(ERM)概念,包括偏差/方差分析,ERM的定义及其与logistic回归、SVM的关系。此外,还探讨了一致收敛定理,利用联合界引理和Hoeffding不等式,揭示了样本数量、泛化误差和训练误差之间的关系,以及如何通过ERM找到偏差与方差的平衡点。
摘要由CSDN通过智能技术生成

课程概述:

1.偏差/方差(Bias/variance)

2.经验风险最小化(Empirical Risk Minization,ERM)

3.联合界引理与Hoeffding不等式

4.一致收敛(Uniform Convergence)


一、偏差/方差


  偏差与方差对应的仍然是过拟合与欠拟合的问题,本篇主要解决的问题就在于构建一个模型,对何时出现过拟合和欠拟合进行说明。
  关于过拟合与欠拟合的问题,前面已经讲过,这里在稍微说一下,如下图:

上图中,左图为欠拟合,即没有很好的拟合所有的数据,有很大的泛化误差,这种情况对应于高偏差;

中间的图为较好的拟合;

右图为过拟合,即对实验数据集合的太好,这样当换一组数据时就可能有较大的误差,即不具有一般性,这种情况对应于高方差。

简而言之,欠拟合对应了高偏差,过拟合对应高方差。


二、经验风险最小化(Experience Risk Minimization,ERM)


首先,我们定义数据集:


其中是i.i.d(独立同分布变量)。y ∈ {0,1}。

其次,分类模型为:

由定义可知,的输出只能为0 或者 1。

这个模型和logi

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值