CS229学习笔记(1)

线性回归

我们在上一节房屋售价数据集的基础上,增添房间数量这一特征变量,如下图所示:

image_1c5nbop6e9rft5d1gctfsf17ll9.png-34.8kB

因此,特征变量 x x x变为了维度为2的向量,记作 x ∈ R 2 x \in R^2 xR2,其中 x 1 ( i ) x_{1}^{(i)} x1(i)表示数据集中第i个房屋的房屋面积,则 x 2 ( i ) x_{2}^{(i)} x2(i)表示数据集中第i个房屋的房间数量。

对于此监督学习问题,若我们采用线性回归模型,其假设函数 h ( x ) h(x) h(x)为:

h ( x ) = θ 0 + θ 1 x 1 + θ 2 x 2 = ∑ i = 0 m θ i x i = h θ ( x ) h(x) = \theta_{0} + \theta_{1}x_{1} + \theta_{2}x_{2} = \sum\limits_{i=0}^m \theta_{i}x_{i} = h_{\theta}(x) h(x)=θ0+θ1x1+θ2x2=i=0mθixi=hθ(x)

其中, h θ ( x ) h_{\theta}(x) hθ(x)表示以 θ \theta θ为参数。为了便于向量化,我们令 x 0 = 0 x_{0}=0 x0=0,则上式可改写为:

h θ ( x ) = θ T x h_{\theta}(x) = \theta^{T}x hθ(x)=θTx

从上式可知, θ \theta θ为未知变量。那么我们该如何根据数据集计算出 θ \theta θ的值呢?我们不妨回想一下假设函数 h θ ( x ) h_{\theta}(x) hθ(x)的定义。从上一小节可知,假设函数 h θ ( x ) h_{\theta}(x) hθ(x)是我们从给定数据集中学习得到的,其输出的值与数据集中的 y y y越相近越好。因此,我们可以定义如下的代价函数(Cost Function):

J ( θ ) = 1 2 ∑ i = 1 m ( h θ ( x ( i ) ) − y i ) 2 J(\theta) = \frac{1}{2} \sum\limits_{i=1}^{m} (h_{\theta}(x^{(i)}) - y^{i})^2 J(θ)=21i=1m(hθ(x(i))yi)2

当代价函数 J ( θ ) J(\theta) J(θ)最小时,其参数 θ \theta θ的值为我们所要的,从而得到了拟合训练集的最佳参数。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值