机器学习笔记1:简介

1、关于机器学习的概念

     1) 下面是由卡内基梅隆大学计算机科学学院机器学习系主任 Tom Mitchell给出的机器学习的定义

      “A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P, if its performance at tasks in T, as measured by P, improves with experience E."

                                                                                                                                                       —Tom Mitchell

      2)维基百科的定义

        机器学习是人工智能的一个分支,主要关于构造和研究可以从数据中学习的系统。

2、机器学习的任务类型    

       机器学习的任务类型有以下几种

            2.1 监督学习(Supervised Learning)

                    ----分类(Classification)

                    ----回归(Regression)

                    ----排序(Ranking)

            2.2 非监督学习(Unsupervised Learning)

                    ----聚类(Clustering)

                    ----降维(Dimensionality Reduction)

                    ----概率密度估计(density estimation)

            2.3 半监督学习(Semi-supervised Learning)

            2.4 增强学习(Reinforcement Learning)

            2.5 迁移学习(TransferLearning)

 

2.1 监督学习(Supervised Learning)      

    监督学习下面又细分为分类回归排序三种类型。下面介绍什么是监督学习并且使用数学公式解释下背后的原理和例子。

    监督学习:学习到一个 x → y 的映射ƒ,从而对新输入的 x 进行预测ƒ(x)。监督的意思是在我们的训练数据集中,带有标签y(即在训练数据中可以看到的变量,一般是数据集的第一列或者最后一列),如下关系:

                         

    我们举个例子,比如 波士顿房价预测

        · 房价预测 就是一个监督学习的任务:根据训练数据   对房屋属性和房屋价格之间的关系进行建模,在学习好的模型对新的房屋进行价格预测。

            – 训练样本数目N :506个样本
            – 输入房屋属性x :13个特征(CRIM、…、LSTAT)

            – 输出房价y :MEDV

            

        1)分类(Classification):在监督学习的任务中,若输出y为离散值,我们称之为分类,标签y的取值空间为:y={1,2,.....,C}。模型是学习从输入x到输出y的映射ƒ:

                                                      

    而学习的目标就是得到一个函数,使得训练集上预测的值与真值之间的差值最小,那么这样得到的函数就是损失函数:

                                 

              因为是分类任务,所以上述公式是预测类别与真实类别是否相同,相同则损失为0,则说明样本分对了。否则分错了。至于如何计算得到损失最小,这个属于优化问题,后面再提。

              · 例如:信用评分

                            -----输入x : 客户的存款(savings)和收入(income)

                            -----输出y  :  客户的风险等级(risk)(是高风险还是低风险)

                    根据上面,我们得到的样本为 {(savings,income,risk)} 。预测模型为  risk=ƒ(savings,income) 。

 

        2)回归(Regression):在监督学习任务中,若输出为连续值,则我们称之为一个回归(Regression)任务,那么回归的模型:

                                                                    

               而学习的目的也是得到一个函数,使得训练集上预测值与真值之间的差异最小,这个函数就是损失函数:

                                                        

              但是我们的学习任务时一个回归问题,所以还有把所有测试的样本得到的结果加起来才行,所以我们最终得到的

        目标函 数:

                                                        

                · 例如:上面的房价预测

 

        3)排序(Ranking):排序学习是推荐、搜索、广告的核心方法。

                以信息检索为例,训练时我们给定文档集合  和 查询-文档对(pair):查询

                                                     

                排序学习根据训练学习一个排序模型ƒ(q,d),然后利用该模型对新的查询 ,给出每个文档的排序

        、......、

                一般监督学习直接给定训练数据 不同,排序学习中需要首先根据查询q及其文档d集合进行标注(data labeling)和提取特征(featureextraction)才能得到。如下:

     

                因为原始输入只有查询q和文档d,为了得到标准的x,y,标注的目的是为了得到要y,特征x是跟查询q和文档d都有关系,所以通过特征提取就可以得到对应的x了,这样就可以得到数据集y=ƒ(x)的函数关系。

 

2.2 非监督学习(Unsupervised Learning)

            非监督学习,在数据集中没有标签y,并试图通过x来进行学习找出其中的结构或者规律的模型;发现数据中的“有意义的模式”,亦被称为知识发现。非监督学习细分下主要有聚类和降维
                    – 训练数据不包含标签
                    – 标签在训练数据中为隐含变量(在数据集中可能是有y的,只是隐藏了)

                                            

        1)聚类(Clustering):根据文字含义,聚类就是根据数据集找出同类的任务。比如人的"类型" 

    根据不同的身高和体重,我们可以分为两类:红色标记和蓝色标记两类,或者分为三类:黑色标记、蓝色标记和红色标记。具体分为多少类,一是根据我们自身的背景知识,二是根据数据的模型选择方式,选择最佳的K。K就是类型个数。

    那某个样本是属于哪个类呢?那就需要通过,看属于那个概率最大,把隐含变量找出来,其中

        

        2)降维(Dimensionality Reduction):我们可以把降维归到特征提取那部分内容,因为我们的样本x通常有多维特征,而且有些特征之间会相关而存在冗余。比如图像中的数据,其背景大多数都是黑色的,也就是说相邻像素的值通常相同或者差异很小。实际我们手写的数字中,像素是可能是28*28=784维,而机器学习中,实际上使用不到那么多维数就可以很好的识别了。所以我们就需要降维。

                                

         降维是一种将原高维空间中的数据点映射到低维度空间的技术。其本质是学习一个映射函数 ,其中x是原始

    数据点的表达,是数据点映射后的低维向量表达。在机器学习中特征工程是非常重要的一部分,降维算法也就成为了数据预处理的一部分,比如主成分分析(Principal Components Analysis, PCA)。

        3)概率密度估计(density estimation):只是对一两维的数据起作用,更高维的数据就没有办法了,这里我们不进行阐述了

 

2.3 半监督学习(Semi-supervised Learning)

        鉴于监督学习和非监督学习之间,还有一个半监督学习。这个在我们实际应用中是极有可能存在的,比如医疗数据,只有少数带有标签的,因为如果请医生将所有的数据都做标签的话,是非常大的成本。所以在我们的学习中,可以根据少数带标签的数据和大量不带标签的数据,也可以得到很好的数据模型。

    比如上面左边的图,中间红色标签是一个类和外围蓝色的标签是一个类,通过这种少量标签,我们就可以通过学习得到图右中,所有数据的最终分类了。

 

2.4 增强学习(Reinforcement Learning)

        当我们数据的x时,模型并不是马上就得到y,而是有延迟,因为模型对环境做出相应的反应,那么外界就会对其行为进行奖励或者惩罚。即增强学习就是从行为的反馈(奖励或惩罚)中学习。

        设计一个回报函数(reward function),如果learning agent(如机器人、回棋AI程序)在决定一步后,获得了较好的结果,那么我们给agent一些回报,比如回报函数结果为正就奖励,得到较差的结果,那么回报函数为负就惩罚。我们最终的目的,也就是增强学习的任务,就是找到一条回报值最大的路径。著名的AlphaGo就是使用增强学习的

 

2.5 迁移学习(TransferLearning)

  顾名思义就是就是把已学训练好的模型参数迁移到新的模型来帮助新模型训练。考虑到大部分数据或任务是存在相关性的,所以通过迁移学习我们可以将已经学到的模型参数(也可理解为模型学到的知识)通过某种方式来分享给新模型从而加快并优化模型的学习效率不用像大多数网络那样从零学习(starting from scratch,tabula rasa)

 

 

                                                                                                                                        

 

                                                                                                                                                AI五期 陆显胜

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值