台大机器学习
文章平均质量分 67
Jeremy Anifacc
LifeLongLearning~Other Blog:jeremiahzhang.github.com
展开
-
【01】台大机器学习L3 机器学习分类问题
L3 各式機器學習問題 分类: 根据输出空间 y根据数据样本标签 yn根据Protocol f根据输入空间 X 1 根据输出空间 y 来分 二元分类多类别分类线性回归:输出为实数Structural Learning et 2 根据样本标签来分 监督学习:训练样本数据有标签非监督学习:训练样本数据没有标签半监督学习:训练样本数据只有一部分标签,原创 2014-12-24 16:25:32 · 610 阅读 · 0 评论 -
【01】台大机器学习L2 二元分类 PLA
【02】When can ML?二元分类(是非问题)-PLA 本讲主要介绍了二元分类问题的一解决方法【PLA - Perceptron Learning Algorithm 感知器算法(知错能改算法,一种线性分类器)】,后续延伸简单介绍了一种【Pocket Algorithm 口袋算法】 PLA 感知器算法介绍 PLA 的算法可行性证明 PLA 算法优缺点及后续问题原创 2014-12-24 14:35:05 · 706 阅读 · 0 评论 -
【02】台大机器学习L6 理论归纳
【06】理论归纳 Break PointBounding FunctionVC边界 本讲讲的主要是一些理论归纳,发现听的云里雾里的。 Break Point 的限制作用 成长函数:最大的二元分类dichotomies的数目。 Break Point的性质: 上图有提到shatter,这这讲里面提到的shatter,混乱了,需要捋一下! 【理解 shatter】根据原创 2014-12-25 19:16:51 · 404 阅读 · 0 评论 -
【01】台大机器学习L4 机器学习可行性
Feasibility of Learning 機器學習的可行性 机器学习可行么?概率论知识 估计概率论运用到ML学习中去 Connection实际问题探讨 机器学习可行么 图2: 规矩是人定的,所以没有标准答案天下没有免费的午餐理论-现成的数据,来预测实际大量的数据,准确性不一定的,那有那么简单。 图3: 概率论知识引入 运用概率论的知识来探讨上面的问题原创 2014-12-24 19:04:17 · 391 阅读 · 0 评论 -
【02】台大机器学习L7 The VC Dimension
WHY? The VC Dimension 这一讲听的云里雾里,有待进一步理解VC维的理论! Definition of VC DimensionVC Dimension of PerceptronsPhysical Intuition of VC DimensionInterpreting VC Dimension VC维的定义:可以被shatter的最大的点数目,+1就为Be原创 2014-12-26 19:09:43 · 587 阅读 · 0 评论 -
【02】台大机器学习L5 训练与测试
【L5】Why? 训练和测试 Recap and Preview 回顾Effective Number of linesEffective Number of HypothesesBreak Point 1、回顾 前面4讲简单介绍了机器学习的基本分类,应用以及简单的分类算法以及PAC概率论与Learning的结合, Learning 其实就是找到在一Hypo集H中找到合适的原创 2014-12-25 15:32:04 · 392 阅读 · 0 评论 -
【01】台大机器学习L1 机器学习问题
【01】When can ML?The Learning Problem 课程设计什么是MLML的应用Components of MLML与其他的领域相关性 1 课程设计 理论和实际的相结合: 基石偏理论,技法偏实际应用算法ML的哲学理念体现、主要理论、核心技术(算法)、实际应用主讲: 1)When can Machines Learn(ML)?() 2)Why can M原创 2014-12-24 09:41:39 · 361 阅读 · 0 评论