机器学习初步(一):机器学习介绍

相关背景介绍略过不谈,直接记录相关内容!

机器学习相关技术

机器学习目前大致可按照如下分类:在这里插入图片描述
主要包括监督学习、半监督学习、转移学习、无监督学习和强化学习

监督学习

监督学习,顾名思义,即为给出问题,同时给出答案,经过训练和测试后选出合适的模型。
典型的监督学习比如回归学习,**分类问题(二分类和多分类)**等等。

回归问题举例
1. PM2.5含量预测

在这里插入图片描述
比如提供某段时间内每天的相关检测数据,根据过去每天的PM2.5含量预测明天的PM2.5的含量。

分类问题举例
1. 垃圾邮件分类

这是一个二分类问题。根据提供的邮件数据和是否为垃圾邮件来训练模型。
在这里插入图片描述

2. 新闻分类问题

这是一个多分类问题。提供相关的新闻内容,经过学习实现将其分到对应的主题:教育、医疗、政治等等。

3. 围棋问题

围棋问题虽然使用的不是线性模型,但是也是一个多分类问题。围棋棋盘上一共19x19个位点,可以视为如此多个选项的分类问题。
在这里插入图片描述
提供足够多的棋谱数据,最终其可以学会围棋。(或许人类的学习也是如此吧,不断地训练不断地对局,最终对对手的想法了如指掌,无论别人怎么走,最终都能提前遏制对方的计谋甚至提前下套。而且计算机的速度可是快的多了,学习的速度相较而言也会快很多)

监督学习中的结构化学习

structured learning中让机器输出的是具有结构性的,比如:
在这里插入图片描述
input = 一段语音讯号,output=一个完整的句子;
input = 一个中文句子,output = 对应的英文翻译;
input = 一张图片,output = 人物名称以及各自的位置;
这些机器的输出很明显都是具有特定结构的。

半监督学习

监督学习我们需要提供足够多的输入和输入,同时每一个输出都需要人为确认。这些output被称为label。每一个label都需要人力标记的话,显然还是挺费事的。为了减少需要的label量,可以采用半监督学习
在这里插入图片描述
假设你打算做一个猫和狗的分类器,但是只有少量的已标记的数据,另外是大量未标记的数据。在半监督学习里,这些未标记的数据同样可以为学习提供帮助。

迁移学习

在这里插入图片描述
同样的,假设只有少量的labelled data,但是还有大量的unlabelled data,其中除了猫和狗以外,还有其他的图片,迁移学习即可用来解决此类问题。

无监督学习

无监督学习相对于监督学习,对于模型只提供输入,不提供指定的输出,完全由模型自行在数据中学习任何可能的东西。比如,让机器在动物园看动物,最终能否自己创造出自己的“动物世界”。

强化学习

如果把强化学习监督学习做个对比:在监督学习中,我们会给机器提供答案,机器按照答案修改自己的function,而在强化学习中,并不会提供一个准确的答案,而是给机器的答案打分,机器自行反思同时继续修改。比如:
若我们现在要用reinforcement learning方法来训练一个聊天机器人的话,他训练的方法会是这样:你就把机器发到线下,让他的和面进来的客人对话,然后想了半天以后呢,最后仍旧勃然大怒把电话挂掉了。那机器就学到一件事情就是刚才做错了。但是他不知道哪边错了,它就要回去自己想道理,是一开始就不应该打招呼吗?还是中间不应该在骂脏话了之类。它不知道,也没有人告诉它哪里做的不好,它要回去反省检讨哪一步做的不好。
著名的alpha Go就是监督学习+强化学习训练的。先是提供棋谱进行监督学习,然后再与机器对弈,根据最终的胜负判断自己做的好或者不好。就像是我们先是在书本上学习知识,后来步入社会或者参加科研时,许多做法的对错我们是不知道的,只能根据最终的结果自我修改!!

这是这次机器学习的第一次笔记,后续希望自己能够了解更多,学会更多吧!

注意:此文主要是参照datawhale的开源文档,相关图片皆是引用自文档!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值