机器学习01

  • 绪论:初识机器学习
  • 单变量线性回归
  • 线性代数回顾

绪论:初识机器学习

机器学习:

计算机从经验E中学习,解决一个任务T,进行某一性能度量P,通过P测定,在T上的表现因经验E而提高
——Tom Mitchell

在没有明确设置的情况下,使计算机具有学习能力的研究领域
——Arthur Samuel

机器学习:

  • 监督学习(Supervised Learning)

给算法一个数据集,其中包含正确答案,算法给出预测值
Eg:分类问题;回归问题

  • 无监督学习(Unsupervised Learning)

给算法一个数据集,其中包含正确答案,算法给出预测值
Eg:聚类问题(分类+标签);鸡尾酒会算法(声音分离)

单变量线性回归

NO.6

m = 训练样本的数量
x = 输入变量 / 特征
y = 输出变量 / 目标变量
(x,y) = 一个训练样本
(x(i),y(i)) = 第 i 个训练样本

监督工作:
工作流程

NO.7

代价函数:
在这里插入图片描述
J ( θ 0 , θ 1 J(θ_0,θ_1 J(θ0,θ1):代价函数(cost function)/平方误差函数(square error function)

NO.9 梯度下降(Gradient Descent)

also called:‘Batch’ Gradient Descent (这个是全览整个数据集)
在这里插入图片描述
会有局部最优解
在这里插入图片描述
注:

  • := 赋值运算符
  • α Learning rate 学习率(控制速度)
  • for j=0 and j=1 simultaneously update θ 0 , θ 1 θ_0,θ_1 θ0,θ1 (同步更新)
    在这里插入图片描述
    注:顺序不可改,需要同步!
NO.11

在这里插入图片描述
注:

  • 若α过大,会跳过最低点,可能会导致发散
  • 由于各点斜率不同,离最低点越近,斜率的绝对值越小,所以变化越慢,无需改变α
NO.12

在这里插入图片描述
求偏导:
在这里插入图片描述
带回得:
在这里插入图片描述
although 梯度下降会有局部最优解,但是,实际上,我们用到的代价函数,总是凸函数(convex function),只有全局最优

线性代数回顾

大写字母:矩阵
小写字母:数字、标量、向量

矩阵相加:对应元素相加
矩阵乘除实数:每个数与之 × / ÷ ×/ ÷ ×/÷
矩阵相乘: A i j : A 1 的 行 ( i ) × A 2 的 列 ( j ) A_{ij}:A_1的行(i)×A_2的列(j) Aij:A1(i)×A2(j) [ 对应求和 ]
(m×n) × (n×1) -> (m×1)
A × B ≠ B × A A×B ≠ B×A A×B̸=B×A
A × B × C = ( A × B ) × C = A × ( B × C ) A×B×C = (A×B)×C = A×(B×C) A×B×C=(A×B)×C=A×(B×C)
A ⋅ A − 1 = A ⋅ A − 1 = I A·A^{-1} = A·A^{-1} = I AA1=AA1=I

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值