【吴恩达机器学习笔记】第四章 多变量线性回归

搜索微信公众号:‘AI-ming3526’或者’计算机视觉这件小事’ 获取更多人工智能、机器学习干货

csdn:https://blog.csdn.net/qq_36645271

github:https://github.com/aimi-cn/AILearners

第四章 多变量线性回归

4.1 多维特征

在之前的章节中,我们学习了单变量线性回归,及模型中只包含一个变量(特征)。但是我们清楚,在使用机器学习算法去解决一个实际问题时,只包含一个变量(特征)的模型是不能够满足我们的需求的,所以在这里,我们将从例子、定义以及模型三个方面来介绍多变量(multiple variables/features)线性回归

4.1.1 一个小例子

这里我们还以之前的房价预测为例,我们为这个模型加入例如卧室数量、楼层数以及房子的使用时长等多个特征,构成一个含有多个变量的模型,模型中的特征为 ( x 1 , x 2 , . . . , x n ) (x_1,x_2,...,x_n) (x1,x2,...,xn)
在这里插入图片描述
对于这个问题,我们就需要对这个含有多个变量的问题进行建模。

4.1.2 定义

  • n n n = 特征的数量(number of features)
  • x ( i ) x^{(i)} x(i) = 输入的第 i i i个训练样本的特征(input of i t h i^{th} ith training example)
  • x j ( i ) x_j^{(i)} xj(i) = 输入的第 i i i个训练样本的特征的值(value of feature j j j in i t h i^{th} ith training example)

例如,在上面的例子中, n n n = 4, x ( 2 ) = [ 1416 3 2 40 ] x^{(2)} = \left[ \begin{matrix} 1416\\ 3\\ 2\\ 40\end{matrix} \right] x(2)=14163240 x 3 2 x_3^{2} x32 = 2。

4.1.3 假设函数

  • 单变量线性回归 h θ ( x ) = θ 0 + θ 1 x h_\theta (x) = \theta_0+\theta_1 x hθ(x)=θ0+θ1x
  • 多变量线性回归 h θ ( x ) = θ 0 + θ 1 x 1 + θ 2 x 2 + . . . + θ n x n h_\theta (x) = \theta_0+\theta_1 x_1+\theta_2 x_2+...+\theta_n x_n hθ(x)=θ0+θ1x1+θ2x2+...+θnxn

在多变量线性回归的模型公式中,有 n + 1 n+1 n+1个参数和 n n n个变量,为了方便表示,将 x 0 x_0 x0的值设为1( x 0 ( i ) = 1 x_0^{(i)}=1 x0(i)=1),所以特征向量 x x x是一个从0开始标记的 n + 1 n+1 n+1维向量。即
x = [ x 0 x 1 x 2 . . . x n ] ∈ R n + 1 , θ = [ θ 0

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值