浅谈机器学习的分类

机器学习中最流行的学习方法有哪些?

被最广泛采纳的两大机器学习方法是监督学习( supervised learning )和无监督学习(unsupervised learning)。大多数的机器学习(大概70%)是监督学习。无监督学习大概占10%-20%。有时也会使用半监督和强化学习这两个技术。

·监督学习 算法利用标签实例进行训练,就像已知所需输出的输入。例如,一个设备可以有的数据点标记为“F”(失败)或“R”(运行)。学习算法收到了一系列有着对应正确输出的输入,且算法通过对比实际输出和正确输出进行学习,以找出错误。然后相应的进行模型修改。通过分类,回归,预测和梯度提高的方法,监督学习使用模式来预测额外的未标记数据的标签的值。监督学习被普遍应用于用历史数据预测未来可能发生的事件。例如,它可以预测,什么时候信用卡交易可能是欺诈性的,或哪个保险客户可能提出索赔。
·无监督学习使用无历史标签的相反数据。系统不会被告知“正确答案”。算法必须搞明白被呈现的是什么。其目标是探索数据并找到一些内部结构。无监督学习对事务性数据的处理效果很好。例如,它可以识别有相同属性的顾客群(可以在市场营销中被一样对待)。或者它可以找到主要属性将客户群彼此区分开。流行的技术包括自组织映射(self-organizing maps),最近邻映射( nearest-neighbor mapping),k-均值聚类(k-means clustering )和奇异值分解(singular value decomposition)。这些算法也用于段文本主题,推荐项目,和确定数据异常值。
·半监督学习的应用和监督学习相同。但它同时使用了标签和无标签数据进行训练-通常情况下是少量的标记的数据与大量的未标记的数据(因为未标记的数据并不昂贵,且只需要较少的努力就可获得)。这种类型的学习可以使用的方法,如分类,回归和预测。当一个完全标记的培训过程,其相关标签的成本太高时,就要用到半监督学习。其中早期的例子包括在网络摄像头上识别一个人的脸。
·强化学习经常被用于机器人,游戏和导航。通过强化学习,该算法通过试验和错误发现行动产生的最大回报。这种类型的学习有三个主要组成部分:代理(学习者或决策者),环境(一切的代理交互)和行动(什么是代理可以做的)。其目标是代理选择的行动,可以在一个给定的时间内最大化预期奖励。通过一个好的策略,代理将更快地达到目标。因此,强化学习的目标是学习最好的策略。
数据挖掘、机器学习和深度学习之间的区别是什么?

机器学习与其它统计和学习方法的不同之处,如数据挖掘,是辩论的另一个热门话题。简单来说,虽然机器学习使用了许多与数据挖掘相同的算法和技术,但其中有一个区别在于这两个学科的预测:

·数据挖掘是发现以前未知的模式和知识。
·机器学习是用来重现已知的模式和知识,自动应用到其他数据,然后自动的将这些结果应用到决策和行动。
目前电脑的能力逐渐增强也刺激着数据挖掘进化用于机器学习。例如神经网络很长一段时间内被用于数据挖掘应用。随着计算能力的增加,你可以创建许多层神经网络。在机器学习语言中,这些被称为“深度神经网络”。正是计算能力的提升确保了自动学习快速的处理很多神经网络层。

进一步说,人工神经网络(ANN)是简单的基于我们对大脑理解的一组算法。ANNs可以-在理论上-模拟数据集中任何种类的关系,但在实践中要从神经网络得到可靠的结果,是非常棘手的。人工智能的研究可以追溯到20世纪50年代——被神经网络的成功和失败打上了标签。

如今,一个被称为“深度学习”的新神经网络研究领域,在许多过去人工智能方法失败的领域,取得了巨大的成功。

深度学习结合了计算能力和特殊类型的神经网络,在大量的数据中学习复杂的模式。深度学习技术目前在识别图像中的目标和声音中的单词方面效果最好。研究人员现在正在寻找方法,将这些成功的模式识别到更复杂的任务,如自动语言翻译,医疗诊断和许多其他重要的社会以及商业问题。

让我们来比较一下强化学习和其他种类机器学习方法:

监督学习(supervised learning)v.s. 强化学习:在监督学习中,有一个外部“监督者”(supervisor)。“监督者”了解环境,并与智能体共享环境信息以完成任务。但这其中存在一些问题,智能体可以通过执行许多种不同子任务的组合来达到目标。所以创建一个“监督者””几乎是不切实际的。例如在象棋游戏中,有成千上万种走法。因此,创建一个可以下象棋的知识库是一个单调乏味的任务。在这样的问题中,从经验中学习更为可行。这可以说是强化学习和监督学习的主要区别。在监督学习和强化学习中,输入和输出之间都存在映射(mapping)。但在强化学习中,还存在对智能体进行反馈的奖励函数,这在监督学习中是不存在的。

无监督学习(unsupervised learning) v.s. 强化学习:在强化学习中,有一个从输入到输出的映射。这种映射在无监督学习中并不存在。在无监督学习中,主要任务是找到数据本身的规律而不是映射。例如,如果任务是向用户建议新闻文章,则无监督学习算法将查看该人先前读过的文章并向他们建议类似的文章。而强化学习算法将通过建议少量新闻文章给用户,从用户获得不断的反馈,然后构建一个关于人们喜欢哪些文章的“知识图”。

此外,还有第四种类型的机器学习方法,称为半监督学习(semi-supervised learning),其本质上是监督学习和无监督学习的结合(利用监督学习的标记信息,利用未标记数据的内在特征)。它类似于监督学习和半监督学习,不具有强化学习具备的反馈机制(奖赏函数)。(译者注:这里应该是原文作者的笔误,强化学习有映射,映射是每一个状态对应值函数。而无监督学习没有标记信息,可以说是没有映射的。我想这里作者想要表达的是半监督学习区别于强化学习的地方是半监督学习没有强化学习的反馈这个机制。)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值