自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 收藏
  • 关注

原创 机器学习基石HOW BETTER部分(2)

机器学习基石HOW BETTER部分(2)标签:机器学习基石第十四章minimizes augmented error, where the added regularizer effectively limits model complexity主要思想:将假设函数从高次多项式降至低次。发生overfitting的一个重要原因可能是假设过于复杂了,我们希望在假设上做出让步,用稍简单的模型来学习,避

2015-12-18 11:07:54 411

原创 机器学习基石HOW BETTER部分(4)

机器学习基石HOW BETTER部分(4)标签:机器学习基石第十六章奥卡姆剃刀(Occam’s Razor)哲学意义:剃掉过分的解释。 机器学习:对训练数据最简单的解释就是最好的。 The simplest model that fits the data is also the most plausible. 以前讲过简单的hypothesis,也就是看起来简单。只要简单参数。简单的mode

2015-12-18 11:02:09 370

原创 机器学习基石HOW BETTER部分(3)

机器学习基石HOW BETTER部分(3)标签:机器学习基石第十五章(crossly) reserve validation data to simulate testing procedure for model selection模型选择问题 做二元分类,可以有的选择真的好多啊。每一种的选择就多,最后实现,还是选择的组合。 把模型选择问题一般化一下,就是如下的定义:有M个模型,每个模型有其对

2015-12-18 11:01:33 389

原创 机器学习基石HOW BETTER部分(1)

机器学习基石HOW BETTER部分(1)标签:机器学习基石第十三章overfitting happens with excessive power, stochastic/deterministic noise, and limited dataunderfitting:EINE_{IN}和EoutE_{out}都很大。 overfitting:EINE_{IN}很小,但是EoutE_{out}

2015-12-18 11:00:14 423

原创 机器学习基石HOW部分(4)

机器学习基石HOW部分(4)标签:机器学习基石第十二章nonlinear via nonlinear feature transform ϕ\phi plus linear with price of model complexity前面的分析都是基于“线性假设“,它的优点是实际中简单有效,而且理论上有VC 维的保证;然而,面对线性不可分的数据时(实际中也有许多这样的例子),线性方法不那么有效。

2015-12-18 10:59:37 458

原创 机器学习基石HOW部分(3)

机器学习基石HOW部分(3)标签:机器学习基石第十一章binary classification via (logistic) regression; multiclass via OVA/OVO decomposition所有的回归算法,经过一些修改,就可以用来做分类。但是分类算法无论怎么改都不能做回归。前面的章节介绍了三种线性模型,PLA、Linear Regression与Logistic R

2015-12-18 10:59:02 406

原创 机器学习基石HOW部分(2)

机器学习基石HOW部分(2)标签:机器学习基石第十章gradient descent on cross-entropy error to get good logistic hypothesis从方程的形式、误差的衡量方式、如何最小化EinE_{in}的角度出发之前提过的二元分类器如PLA,其目标函数为, f(x)=sign(wTx)∈−1,+1,f(x)=sign(wTx)∈{−1,+1},输出要

2015-12-18 10:58:26 376

原创 机器学习基石HOW部分(1)

机器学习基石HOW部分(1)标签:机器学习基石第九章analytic solution wLIN=X†yw_{LIN} = X^†y with linear regression hypotheses and squared error从方程的形式、误差的衡量方式、如何最小化EinE_{in}的角度出发,并简单分析了Hat Matrix的性质与几何意义,希望对线性回归这一简单的模型有个更加深刻的理

2015-12-18 10:56:58 361

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除