机器学习-线性回归及梯度下降算法

本文介绍了机器学习中的线性回归模型,通过CS229课程第一节的内容,阐述了线性回归假设、参数、成本函数和目标。以房屋价格与面积的一次函数关系为例,详细解析了线性回归的实现过程,特别是使用Matlab进行梯度下降算法的步骤,包括参数初始化、迭代更新和损失函数计算。
摘要由CSDN通过智能技术生成

机器学习-线性回归及梯度下降算法

四个要素

  1. Hypothsis
  2. parameters
  3. costFunction
  4. Goal

以CS229第一节为例

(Hypothesis)假设房屋的价格与房屋面积的关系是一个一次函数

H θ ( x ) = θ 0 + θ 1 ∗ x \\H_\theta(x)=\theta_0+\theta_1*x Hθ(x)=θ0+θ1x

Parameters

θ 0 , θ 1 \theta_0,\theta_1 θ0,θ1

cost function

J ( θ ) = 1 2 m ∑ i = 1 m ( h θ ( x ( i ) ) ) − y ( i ) ) 2 \\J(\theta) = \frac{1}{2m}\sum_{i=1}^{m}(h_\theta(x^{(i)}))-y^{(i)})^2 J(θ)=2m1i=1m(hθ(x(i)))y(i))2

Goal

m i n i m i z e θ 0 , θ 1 J ( θ 0 , θ 1 ) minimize_{\theta_0,\theta_1}J(\theta_0,\theta_1) minimizeθ0,θ1J(θ0,θ1)

Matlab 实现过程

注意 Matlab定义函数需要单独 .m 文件中定义函数

过程梳理

初始化参数 θ 0 , θ 1 , α , i t e r a t i o n s ( 迭 代 次 数 ) \theta_0,\theta_1,\alpha,iterations(迭代次数) θ0,θ1,α,iterations()(这里均初始化为 0)
从初始 θ 0 , θ 1 \theta_0,\theta_1 θ0,θ1,根据梯度下降(Gradient Descent)对 θ 0 , θ 1 \theta_0,\theta_1 θ0,θ1迭代,并计算更新后的损失函数 J ( θ ) J(\theta) J(θ)的值,重复预先设定的循环次数

θ \theta θ的迭代公式如下
θ j : = θ j − α m ∂ ∂ θ J ( θ ) \theta_j := \theta_j-\frac{\alpha}{m}\frac{\partial}{\partial \theta}J(\theta) θj:=θjmαθJ(θ)
其中 α \alpha α被称为学习率(learning rate)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值