机器学习-李宏毅(2019) Machine Learning 00笔记


李宏毅老师的机器学习课程,视频来源: 机器学习-李宏毅(2019) Machine Learning。PPT来源: 李宏毅机器学习-课件


lecture 1:找出function的framework

如果需要一个function,对其输入一张图片,它能告诉我们图片里边有什么。我们需要:

  1. A set of function:第一个前提是,准备一个function set。这个set里有成千上万的function:f1、f2 …… 这些function有的能输出正确的的对应关系,有的则不然,输入猫的图片结果判断成猴子。至于如何得到这个set,之后会讲。这个set叫做model。
    在这里插入图片描述
  2. Training Data:第二个前提是,要有一定的训练资料。机器能通过这个训练资料确定什么样的输入有什么样的输出,对于任一的算法,可以与之比较。这样就具备了确定set中各个function优劣的能力。
    在这里插入图片描述
  3. 有效率的演算法:但是机器只能从set中一个function一个function地比较,效率非常低。需要一种好的演算法从set中海量的function中选出最好的function。
  4. 使用这个best function:接下来可以使用这个function了,比如输入一张在training data中没有的猫,希望它的输出也是猫。进而引申出机器学习中一个很重要的能力:举一反三的能力。

前三步称为training,最后一步称为testing。
在这里插入图片描述
在这里插入图片描述

lecture 2:机器学习的相关技术

在这里插入图片描述

监督学习

regression

即做预测

classification

分为二分类和多分类
选择不同的model会得到不同的结果最简单的是线性model,非线性的例如深度学习。深度学习的function很复杂,所以可以做特别复杂的事情,比如影像辨识。还可以让机器学会下围棋,输入是棋盘里已有的棋子,输出是下一步落子的位置。棋盘有1919个位置,可以把下棋想成1919的分类问题或者是19*19个选项的选择题。训练的方式是告诉机器,看到某个盘式,就输出某个位置。数据集就是各种各样的棋谱。
在这里插入图片描述

半监督学习

监督学习需要大量的training data,training data包含输入输出之间的关系。training data中的输出叫做label,往往人工来标注。减少需要label的量的办法也有,比如半监督学习。
假如需要鉴别猫狗,要做一个分类器。现在有少量猫狗的图片和label(输入和输出),但是有大量的无标签图片,无法告诉机器哪些是猫,哪些是狗。这些没有label的data对学习可能也是有帮助的。
在这里插入图片描述

迁移学习

另一个方法是迁移学习。假设一样,做猫和狗的分类问题,同样有少量的有label的data,同时还有大量的data,这些data可能有label也可能没有,可能是猫狗中的一种,也可能既不是猫也不是狗。有不相干的data,就要用到迁移学习。
在这里插入图片描述

无监督学习

最后还有无监督学习。我们希望机器可以无师自通,在没有label的情况下进行学习。可以在大量的文章中,知道某一个单词时什么意思。比如输入是apple,机器或者function要更说出来是什么意思,也可以用向量来表达其attribute。第二个例子是,动物园的动物看多了,能自己创造一些动物。
在这里插入图片描述

结构化学习

structured learning 中机器输出的是有结构性的结果。举例来说,在语音辨识里面,机器输入是声音讯号,输出是一个句子,句子是要很多词汇拼凑完成。他是一个有结构性的object。
在这里插入图片描述

强化学习

在监督学习中是有老师的,老师会告诉他每个问题的答案。reinforcement learning 是learning from critics,他是从评价中去学习的。他只知道他做的好,或者不好。但是他不知道他哪里做得好,还不知道哪做的不好。reinforcement learning受到重视,就是他比较符合我们人类真正的学习的情景。这是你在学校里面的学习老师会告诉你答案,但在真实社会中没人回告诉你正确答案。你只知道你做得好还是做得不好,如果机器可以做到reinforcement learning,那确实是比较intelligence。那或者是我们用Alpha Go当做例子,对于监督学习就是说,你看到一个下棋的情况,就应该下哪里。对于reinforcement learning就是,机器会不断的下棋,最后赢了,机器就会知道下的不错,但是究竟是哪里可以使他赢,他其实是不知道的。我们知道Alpha Go其实是用监督学习和reinforcement learning去学习的。先用棋谱做监督学习,然后在做reinforcement learning,但是reinforcement learning需要一个对手,如果使用人当对手就会很浪费时间,所以我们采用另一个机器当他的对手。
在这里插入图片描述

总结

在这里插入图片描述
蓝色方块指的是学习的情景。通常学习的情景是你没有办法控制的。比如,因为我们没有data做监督学习,所以我们才做reinforcement learning。所以要依据拥有的数据集的不同情况,采取不同的scenario。
红色的是指task,你要解的问题,你要解的这个问题随着你用的方程的不同,有regression,有classification,有structured,在不同的情境下,都有可能要解这个task。
最后,在这些不同task里面有不同的model,用绿色的方块表示。同样的task用不同的方法来解决。

  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值