李宏毅机器学习 | 第0-1讲 课程内容与机器学习概述

0x0 课程链接

https://www.bilibili.com/video/BV1Wv411h7kN?p=2&vd_source=88ef606d07b3752b74b418b30340b1ac

本门课主要讲解Deep Learning。

0x1 什么是机器学习

Machine Learning ≈ Looking for function

  • Speech Recognition
    f(语音) = “hello world”
  • Image Recognition
    f(图片) = cat
  • Playing Go
    f(棋盘) = next move

0x2 课程安排

  • Lecture 1 - 5:Supervised Learning
  • Lecture 7:Self-supervised Learning:Pre-trained Model --> Downstream Tasks
  • Lecture 6:Generative Adversarial Network
  • Lecture 12:Reinforcement Learning
  • Lecture 8:Anomaly Detection
  • Lecture 9:Explainable AI
  • Lecture 10:Model Attack
  • Lecture 11:Domain Adaptation
  • Lecture 13:Network Compression
  • Lecture 14:Life-long learning
  • Lecture 15:Meta learning --> few-shot learning

1x1 机器学习三大任务

  • Regression 回归
  • Classification 分类
  • Structured Learning 创造(图片、document…)

1x2 机器如何寻找 function

频道后台数据 - f() -> 第二天的点阅率
如何找到f?

  • 猜测 f with unknown parameters which is model
    (为什么能猜出来?需要domian knowledge)
  • Define Loss
    另一个函数 L(bias,weight):how good a set of values is
    输入是参数,输出表示参数是否好。
    根据训练数据来计算Loss,比如 Loss =1/N Σ|预测值 - 真实值|。
    Error Surface:对于不同的参数,得到一个等高线(深度)图
    Error Surface
  • Optimization(最优化)
    Gradient Descent:
  1. pick an initial value
  2. 计算梯度 --> hyperparameters超参数(学习率learning rate)
  3. update w iteratively
    梯度下降有局部最优的问题,但不是最关键的问题
  • prediction
    用训练好的模型预测
    利用domain knowledge修改模型

线性模型
linear models have severe limitation --> model bias
非线性模型
Piecewise Linear Curve
对于连续曲线可以用Piecewise Linear curve来逼近
也就是说可以用b + Σ ci sigmoid(bi +wix1) 来逼近任何函数
也就是 神经网络
神经网络的由来
3sigmod 3feature的一层的神经网络
不同参数命名
优化L(θ):
优化
batch
N = 10000,B = 10 --> 1 epoch update == 1000

Deep的意义是什么?

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值