- 博客(8)
- 收藏
- 关注
原创 机器学习基石HOW BETTER部分(2)
机器学习基石HOW BETTER部分(2)标签:机器学习基石第十四章minimizes augmented error, where the added regularizer effectively limits model complexity主要思想:将假设函数从高次多项式降至低次。发生overfitting的一个重要原因可能是假设过于复杂了,我们希望在假设上做出让步,用稍简单的模型来学习,避
2015-12-18 11:07:54 411
原创 机器学习基石HOW BETTER部分(4)
机器学习基石HOW BETTER部分(4)标签:机器学习基石第十六章奥卡姆剃刀(Occam’s Razor)哲学意义:剃掉过分的解释。 机器学习:对训练数据最简单的解释就是最好的。 The simplest model that fits the data is also the most plausible. 以前讲过简单的hypothesis,也就是看起来简单。只要简单参数。简单的mode
2015-12-18 11:02:09 370
原创 机器学习基石HOW BETTER部分(3)
机器学习基石HOW BETTER部分(3)标签:机器学习基石第十五章(crossly) reserve validation data to simulate testing procedure for model selection模型选择问题 做二元分类,可以有的选择真的好多啊。每一种的选择就多,最后实现,还是选择的组合。 把模型选择问题一般化一下,就是如下的定义:有M个模型,每个模型有其对
2015-12-18 11:01:33 389
原创 机器学习基石HOW BETTER部分(1)
机器学习基石HOW BETTER部分(1)标签:机器学习基石第十三章overfitting happens with excessive power, stochastic/deterministic noise, and limited dataunderfitting:EINE_{IN}和EoutE_{out}都很大。 overfitting:EINE_{IN}很小,但是EoutE_{out}
2015-12-18 11:00:14 423
原创 机器学习基石HOW部分(4)
机器学习基石HOW部分(4)标签:机器学习基石第十二章nonlinear via nonlinear feature transform ϕ\phi plus linear with price of model complexity前面的分析都是基于“线性假设“,它的优点是实际中简单有效,而且理论上有VC 维的保证;然而,面对线性不可分的数据时(实际中也有许多这样的例子),线性方法不那么有效。
2015-12-18 10:59:37 458
原创 机器学习基石HOW部分(3)
机器学习基石HOW部分(3)标签:机器学习基石第十一章binary classification via (logistic) regression; multiclass via OVA/OVO decomposition所有的回归算法,经过一些修改,就可以用来做分类。但是分类算法无论怎么改都不能做回归。前面的章节介绍了三种线性模型,PLA、Linear Regression与Logistic R
2015-12-18 10:59:02 406
原创 机器学习基石HOW部分(2)
机器学习基石HOW部分(2)标签:机器学习基石第十章gradient descent on cross-entropy error to get good logistic hypothesis从方程的形式、误差的衡量方式、如何最小化EinE_{in}的角度出发之前提过的二元分类器如PLA,其目标函数为, f(x)=sign(wTx)∈−1,+1,f(x)=sign(wTx)∈{−1,+1},输出要
2015-12-18 10:58:26 376
原创 机器学习基石HOW部分(1)
机器学习基石HOW部分(1)标签:机器学习基石第九章analytic solution wLIN=X†yw_{LIN} = X^†y with linear regression hypotheses and squared error从方程的形式、误差的衡量方式、如何最小化EinE_{in}的角度出发,并简单分析了Hat Matrix的性质与几何意义,希望对线性回归这一简单的模型有个更加深刻的理
2015-12-18 10:56:58 361
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人