machine learning
文章平均质量分 82
往最优秀方向
很会写bug的程序媛。
展开
-
Lecture 2: Learning to Answer Yes/No(学会回答是非)
Lecture 2: Learning to Answer Yes/No(学会回答是非)PLA A takes linear separable D and perceptrons H to get hypothesis g2.1 Perceptron Hypothesis Set(感知器的假设空间)首先还是讲讲什么是perceptron。perceptron--感知器,感原创 2015-09-03 21:56:07 · 409 阅读 · 0 评论 -
机器学习基石HOW BETTER部分(2)
机器学习基石HOW BETTER部分(2)标签:机器学习基石第十四章minimizes augmented error, where the added regularizer effectively limits model complexity主要思想:将假设函数从高次多项式降至低次。发生overfitting的一个重要原因可能是假设过于复杂了,我们希望在假设上做出让步,用稍简单的模型来学习,避原创 2015-12-18 11:07:54 · 407 阅读 · 0 评论 -
机器学习基石HOW BETTER部分(4)
机器学习基石HOW BETTER部分(4)标签:机器学习基石第十六章奥卡姆剃刀(Occam’s Razor)哲学意义:剃掉过分的解释。 机器学习:对训练数据最简单的解释就是最好的。 The simplest model that fits the data is also the most plausible. 以前讲过简单的hypothesis,也就是看起来简单。只要简单参数。简单的mode原创 2015-12-18 11:02:09 · 363 阅读 · 0 评论 -
机器学习基石HOW BETTER部分(1)
机器学习基石HOW BETTER部分(1)标签:机器学习基石第十三章overfitting happens with excessive power, stochastic/deterministic noise, and limited dataunderfitting:EINE_{IN}和EoutE_{out}都很大。 overfitting:EINE_{IN}很小,但是EoutE_{out}原创 2015-12-18 11:00:14 · 417 阅读 · 0 评论 -
机器学习基石HOW部分(4)
机器学习基石HOW部分(4)标签:机器学习基石第十二章nonlinear via nonlinear feature transform ϕ\phi plus linear with price of model complexity前面的分析都是基于“线性假设“,它的优点是实际中简单有效,而且理论上有VC 维的保证;然而,面对线性不可分的数据时(实际中也有许多这样的例子),线性方法不那么有效。原创 2015-12-18 10:59:37 · 454 阅读 · 0 评论 -
机器学习基石HOW部分(3)
机器学习基石HOW部分(3)标签:机器学习基石第十一章binary classification via (logistic) regression; multiclass via OVA/OVO decomposition所有的回归算法,经过一些修改,就可以用来做分类。但是分类算法无论怎么改都不能做回归。前面的章节介绍了三种线性模型,PLA、Linear Regression与Logistic R原创 2015-12-18 10:59:02 · 398 阅读 · 0 评论 -
机器学习基石HOW部分(2)
机器学习基石HOW部分(2)标签:机器学习基石第十章gradient descent on cross-entropy error to get good logistic hypothesis从方程的形式、误差的衡量方式、如何最小化EinE_{in}的角度出发之前提过的二元分类器如PLA,其目标函数为, f(x)=sign(wTx)∈−1,+1,f(x)=sign(wTx)∈{−1,+1},输出要原创 2015-12-18 10:58:26 · 372 阅读 · 0 评论 -
机器学习基石HOW部分(1)
机器学习基石HOW部分(1)标签:机器学习基石第九章analytic solution wLIN=X†yw_{LIN} = X^†y with linear regression hypotheses and squared error从方程的形式、误差的衡量方式、如何最小化EinE_{in}的角度出发,并简单分析了Hat Matrix的性质与几何意义,希望对线性回归这一简单的模型有个更加深刻的理原创 2015-12-18 10:56:58 · 357 阅读 · 0 评论 -
Lecture 1: The Learning Problem(学习问题)
Lecture 1.The Learning Problem(学习问题)1.1 CourseIntroduction(课程介绍) 1.2WhatIs Machine Learning(什么是机器学习) 学习与机器学习: 学习:观察 -> 学习 -> 得到技能 机器学习:数据 -> 机器学习 -> 得到技能 从上述对比之中就大致可以知道什么是机器学习。原创 2015-08-07 17:09:00 · 435 阅读 · 0 评论 -
Lecture 3:Types of Learning(各种类型的机器学习问题)
Lecture 3:Types of Learning(各种类型的机器学习问题)3.1 Learning with Different Output Space(不同类型的输出空间)用患者患病的例子讲述二元分类、多元分类和回归分析的差别。1. binaryclassification(二元分类问题)银行发信用卡问题就是一个典型的二元分类问题,其输出空间只包含两个标记+1和-1,分别原创 2015-09-05 19:32:06 · 633 阅读 · 0 评论 -
机器学习基石HOW BETTER部分(3)
机器学习基石HOW BETTER部分(3)标签:机器学习基石第十五章(crossly) reserve validation data to simulate testing procedure for model selection模型选择问题 做二元分类,可以有的选择真的好多啊。每一种的选择就多,最后实现,还是选择的组合。 把模型选择问题一般化一下,就是如下的定义:有M个模型,每个模型有其对原创 2015-12-18 11:01:33 · 383 阅读 · 0 评论