人工智能教程 - 学科基础课程2.6 - 机器学习导论 4.多变量线性回归,多维特征量,特征缩放,均值归一化

本文介绍了多变量线性回归的概念,包括多维特征的线性假设和通用模型,并探讨了梯度下降算法在多变量情况下的应用。重点讲解了特征缩放的重要性,以解决不同特征尺度差异导致的收敛速度慢的问题,提出通过均值归一化将特征约束到特定范围内以优化梯度下降的效果。
摘要由CSDN通过智能技术生成

矩阵(Matrix)

是由数字组成的矩形阵列

Rectangular arrty of numbers
Demensions of matrix: number of rows X number of columns

向量(vector)

一个向量是一种特殊的矩阵,其只有一列矩阵

An n X 1 matrix

also called n-dimensioned vector

多变量(多元)线性回归

Multivariate linear regression

多维特征

实际生活中,我们往往需要多个特征量

在这里插入图片描述

Hypothesis:

h θ ( x ) = θ 0 + θ 1 x 1 + θ 2 x 2 + θ 3 x 3 + θ 4 x 4 h_\theta (x) =\theta_0+\theta_1x_1+\theta_2x_2+\theta_3x_3+\theta_4x_4 hθ(x)=θ0+θ1x1+θ2x2+θ3x3+θ4x4

多维特征Hypothesis

多元线性回归 Multivariate linear regression

通用模型

h θ ( x ) = θ 0 ( x 0 ) + θ 1 x 1 + θ 2 x 2 + . . . + θ n x n \LARGE\color{red}h_\theta (x) =\theta_0\color{blue}(x_0)\color{red}+\theta_1x_1+\theta_2x_2+...+\theta_nx_n hθ(x)=θ0(x0)+θ1x1+θ2x2+...+θnxn

For convenience of notation,define x 0 = 1 x_0=1 x0=1
x = [ x 0 x 1 x 2 . . . x n ] ∈ R n + 1           θ = [ θ 0 θ 1 θ 2 . . . θ n ] ∈ R n + 1 x=\begin{bmatrix} x_0\\ x_1\\ x_2\\ .\\ .\\ .\\ x_n \end{bmatrix}\in \mathbb{R}^{n+1} \ \ \ \ \ \ \ \ \ \theta=\begin{bmatrix} \theta_0\\ \theta_1\\ \theta_2\\ .\\ .\\ .\\ \theta_n \end{bmatrix}\in \mathbb{R}^{n+1} x=x0x1x2...xnRn+1         θ=θ0θ1θ2...θnRn+1

h θ ( x ) = θ T X \LARGE\color{red}h_\theta (x)=\theta ^TX hθ(x)=θTX

参数向量 θ \theta θ以及特征向量X的内积

多变量代价函数(cost function)

J ( θ 0 , θ 1 , . . . , θ n ) = 1 2 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) 2 \color{red}\LARGE J(\theta_0,\theta_1,...,\theta_n)=\frac{1}{2m}\sum_{i=1}^{m}(h_\theta(x^{(i)})-y^{(i)})^2 J(θ0,θ1,...,θn)=2m1i=1m(hθ(x(i))y(i))2

可以把 n+1 个 θ \theta θ参数想象成一个 n+1 维的向量 θ \theta θ

梯度下降算法

Gradient descent algorithm

repeat until convergence{

θ j : = θ j − α ∂ ∂ θ j J ( θ 0 , θ 1 , . . . , θ n ) \LARGE\color{red}\theta _j:=\theta _j-\alpha \frac{\partial}{\partial\theta_j}J(\theta_0,\theta_1,...,\theta_n) θj:=θjαθjJ(θ0,θ1,...,θn)(for j = 0 and j=1)

}

单变量的下降算法

在这里插入图片描述

多变量的梯度下降算法

在这里插入图片描述

梯度下降法实践之特征缩放

feature scaling

在这里插入图片描述

面临的多特征问题(Problem):

特征之间的尺度(range)相差太大,需要加快梯度下降法的收敛速度,否则过于慢。比如有两个特征,房屋尺寸和房间数,房屋尺寸的范围是0-2000平方,房间数的范围是0-5间,差距太大导致绘制出来的椭圆形又扁又长,收敛速度太慢。

解决办法:Feature Scaling

让每一个特征约束到-1 到 +1 的范围内

Get every feature into approximately a − 1 ≤ x i ≤ 1 -1\leq x_i \leq 1 1xi1 range.

Note: 0 ≤ x 1 ≤ 3 , − 2 ≤ x 2 ≤ 0.5 0\leq x_1 \leq 3,-2\leq x_2 \leq 0.5 0x13,2x20.5其实也都可以,但是 − 100 ≤ x 3 ≤ 100 , − 0.0001 ≤ x 4 ≤ 0.0001 -100\leq x_3 \leq 100,-0.0001\leq x_4 \leq 0.0001 100x31000.0001x40.0001就不好了。

均值归一化 (Mean normalization)在这里插入图片描述

抽象出来 x 1 ← x 1 − μ 1 S 1 x_1\leftarrow \frac{x_1-\mu _1}{S_1} x1S1x1μ1

μ 1 \mu _1 μ1是在训练集中特征 x 1 x_1 x1的平均值 average value of x 1 x_1 x1 feature in training set
S 1 S _1 S1 是该特征值的范围 ,最大值减去最小值 range : maximum value- minimum value
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值