机器学习
liff_lee
一个拼死拼活想学计算机编程掉了很多头发的文艺菜鸟
展开
-
【机器学习基石笔记三】----Types of learning(机器学习的类型)
根据输出分类:二元分类(Binary classification)多分类问题(Multiclass classification)回归分析(Regression)结构化学习(structured learning)different data label:监督式学习(supervised learning)无监督学习(unsupervised learning):聚类...原创 2018-09-01 11:51:15 · 507 阅读 · 0 评论 -
【机器学习基石笔记一】-----When can machines learn?
从零开始学习机器学习的理论知识,选用林轩田的机器学习基石课程以及其配套的课件和书(learning from data),红石头整理的笔记,因为便于理解自己整理一遍,以强化理解学习。其课程讲授导图如下所示:什么是学习?人类获取知识的过程是通过观察积累经验,而机器获取知识的过程是通过数据积累经验。更具体的定义:机器学习的过程是从data出发,经过电脑的计算分析,得到某...原创 2018-08-29 23:46:06 · 553 阅读 · 0 评论 -
【机器学习基石笔记六】------Theory of Generalization(一般化理论---举一反三)
第五节主要讨论M的数值大小对机器学习的影响。如果M很大,那么就不能保证机器学习有很好的泛化能力,所以问题就转化为验证M有限,即最好按照多项式成长。然后通过引入了成长函数和dichotomy以及break point的概念。提出2D perceptrons的成长函数是多项式级别的猜想。以下探讨这个多项式的形成。Restriction of Break Point之前介绍的四种成长函数与bre...原创 2018-09-04 20:52:24 · 609 阅读 · 0 评论 -
【机器学习基石笔记二】----Learning to answer Yes or No(解决二分类问题)
perceptron hypothesis set以信用卡发放为例,对顾客的相关特征信息进行收集,数据集示例如下:对每一个特征赋予一个权重,计算所有特征的加权,然后和已定义的阈值threshold进行比较,查看两者之间的大小关系简化:将门槛值threshold转换为()二维平面中的感知器:每个h对应平面上的一条直线,每条线会有不同的预测,perceptrons&...原创 2018-08-30 13:55:34 · 465 阅读 · 0 评论 -
【机器学习基石笔记四】-----Feasibility of learning(机器学习的可能性)
learing is impossible?看下面的例子,根据已有的例子对以下的问题进行分类根据是否对称分类:+1;根据左上角是否为黑色:-1;实际上还有各种各样的分类方法,它们的分类都是合理的。假设输入为三维向量,输出为二分类0或者1,根据已经知道的五个训练样本数据data,选择最好的函数g,预测其他三种对应的输出结果。对于这个问题,共有8中hypothesis,其中必须保证...原创 2018-09-02 16:13:40 · 780 阅读 · 0 评论 -
【机器学习基石笔记七】-----The VC Dimension(VC维数)
之前的几节着重介绍了机器学习可行的条件并做了详细的推导解释,机器学习可行必须满足两个条件:假设空间hypothesis sets的size M的大小有限,即当N足够大的时候,那么对于hypothesis sets中任意一个假设g,; 利用演算法A从hypothesis sets中选一个函数g,是,则;这两个条件对应着test和train两个过程。train的目的是使损失期望,test的目的...原创 2018-09-11 23:18:37 · 10341 阅读 · 0 评论 -
【机器学习基石笔记五】------Training versus Testing(训练与测试过程)
Recap and preview上节讲到机器学习的可行性,如果有足够的统计资料和有限的hypothesis,通过演算法无论选择什么样的,都会有;如果演算法A选择了一个hypothesis ,其中 ,根据PCA可以保证,可以说明机器学习是可行的。回顾之前的课程,其中第一节是说机器学习的定义是寻找一个最好的函数g,使得很接近理想的函数f,来保证;第二节课讲述在已知资料data上如何使,可...原创 2018-09-03 22:59:52 · 1809 阅读 · 0 评论 -
【机器学习基石笔记八】-----Noise and Eroor
上节课接触了VC Dimension,如果hypothesis set的有限,并且有足够多的data,同时演算法能够找到一个好的hypothesis使得,这样可以说机器学习是可行的。那么在数据有noise的情况下是否能够进行机器学习?Noise and Probablistic target之前对VC Dimension的推导是在没有noise的情况下,如果数据本身存在noise,怎样放宽...原创 2019-03-20 22:37:06 · 301 阅读 · 0 评论 -
集成学习
集成学习通过构建并结合多个学习器来完成学习任务。基于一种“三个臭皮匠顶个诸葛亮”的思想。原创 2019-08-06 09:12:15 · 87 阅读 · 0 评论