【李宏毅2020 ML/DL】P1 introduction
本节主要介绍了 DL 的15个作业
英文大意
Regression: 回归分析
Classification: 分类
RNN: 循环神经网络
CNN: 卷积神经网络
Seq2seq: 序列到序列模型
GAN: 生成式对抗网络
Explainable AI: 可解释性AI
Adversarial Attack: 对抗攻击
Network Compression: 网络压缩
Unsupervised Learning(Auto-encoder): 非监督学习(自动编码)
Anomaly Detection: 异常检测
Transfer Learning(Domain Adversarial Learning): 迁移学习(领域对抗学习)
Meta Learning: 学会学习
Life-long Learning: 终生学习
Reinforcement Learning: 强化学习
机器学习就是自动找函式
英文大意
Speech Recognition: 语音识别
Image Recognition: 图片识别
Playing Go: 围棋
Dialogue System: 对话系统
你想找什么样的函式?
回归分析
你想预测明天的 PM2.5 数值,通过今天的数据和昨天的数据来进行预测
二分类
输入一个句子,输出这个句子是正确的或者是错误的两种情况
多类多分
输入一张图片,从多个图片中选出一个正确的食物
生成
产生有结构的东西(例如:文句、图片)
拟人化的读法——创造
怎么告诉机器你想找什么样的函式?
Supervised Learning
提供给机器有 label 的资料进行学习叫做 Supervised Learning
函式的 Loss
Loss 越低,说明输出的结果越准确
这五种方式通过 Supervised Learning 进行学习
Supervised v.s. Reinforcement
Supervised 是每一条数据都有明确的 label,也就是说,棋盘模型与结果一一对应,结果确实很准确,但却是固定不变的,对不同 situation 不能及时的做出反应,而 reinforcement 学习的最终目的是对所有situation都有正确并且及时的反应,reinforcement 可以从之前成功或是失败的结果中get (Reward),相当于人类的记忆一般,可以不断进行学习成长,这是Supervised 所没有的。
Alpha Go 呢是一开始通过 SL 进行学习,学习到一定程度之后再配合 RL 进行学习,从而可想而知…
非监督学习
机器能从未标记的图像中学到什么?
机器怎么找出你想要的函式?
限制函式寻找范围
函式寻找方法 - Gradient Descent(梯度下降)
左边的是通过自己实现算法(Gradient Descent),右边的是直接使用 DL 架构
前沿研究
Explainable AI
你给他一张图片,他会告诉你这是一只猫,但是他并不知道这为什么是只猫,那就需要用到 Explainable AI 了。
Adversarial Attack
当有人恶意攻击图片识别系统,比如说:在猫的图片上添加一些肉眼看不到,但是机器能识别的杂质,就会把猫辨识成其他的动物,比如说,把猫辨识成海星,这时候可能就需要用到 Adversarial Attack 了。
Network Compression
当识别出的 model 非常巨大时,那可能就需要用到 Network Compression 了。
Anomaly Detection
当正在识别的图片是机器从未见过的动物,是个奇奇怪怪的东西,但是机器呢他不知道自己不知道,所以这时候可能就需要用到 Anomaly Detection 了,通过 AD 来告诉机器他不知道。
Transfer Learning(Domain Adversarial Learning)
当训练数据和测试数据不一致时,如果想要让机器学到一些东西,那么就可能需要用到 transfer Learning 了。
Meta Learning
Life-long Learning