机器学习
zhang_shuai12
料峭春风吹酒醒,谁怕?一蓑烟雨任平生。
展开
-
防止过拟合的几种常见方法
防止过拟合的处理方法何时会发生过拟合? 我们都知道,在进行数据挖掘或者机器学习模型建立的时候,因为在统计学习中,假设数据满足独立同分布(i.i.d,independently and identically distributed),即当前已产生的数据可以对未来的数据进行推测与模拟,因此都是使用历史数据建立模型,即使用已经产生的数据去训练,然后使用该模型去拟合未来的数据。但是一般独立同分布的假转载 2016-09-18 21:42:49 · 18439 阅读 · 0 评论 -
经验风险最小化和结构风险最小化
在假设空间、损失函数以及训练集确定的情况下,经验风险函数就可以确定。假设给定一个数据集: 模型f(x)关于训练数据集的平均损失成为经验风险或经验损失: 经验风险是模型关于训练样本集的平均损失。 经验风险最小化(empirical risk minimization,ERM)的策略认为,经验风险最小的模型是最优的模型。根据这一策略,按照经验风险最小化求最优模型就是求解最优化问题:原创 2016-11-07 11:17:45 · 26901 阅读 · 3 评论