【Stanford机器学习笔记】5-Review for Chapter 1-4

在第1章至第4章中,主要讲了线性回归模型、逻辑回归模型、正则化的线性回归模型和正则化的逻辑回归模型,不管哪个模型,都离不开几个主要的参数:假设函数,代价函数,梯度下降算法。下面对其中的重要公式进行一个小结。

1. 线性回归模型(Linear Regression Model)

(1)假设函数(Hypothesis Function) hθ(x)

hθ(x)=θTx

(2)代价函数(Cost Function) J(θ)

J(θ)=12mi=1m(hθ(x(i))y(i))2

(3)梯度下降算法(Gradient Descent):

repeat until convergence{θj:=θjα1mi=1m(hθ(x(i))y(i))x(i)j(simultaneously update for every j)}

(4)正规方程(Normal Equation)

  • 假设函数(Hypothesis Function)矩阵形式 hθ(x)
    Xθ=y
  • 最优参数解

θ=(XTX)1XTy

2. 逻辑回归模型(Logistic Regression Model)

(1)假设函数(Hypothesis Function) hθ(x)

hθ(x)=g(θTx)=11+eθTx

(2)代价函数(Cost Function) J(θ)

J(θ)=1mi=1m[y(i)log(hθ(x(i)))+(1y(i))log(1hθ(x(i)))]

(3)梯度下降算法(Gradient Descent):

repeat until convergence{θj:=θjα1mi=1m(hθ(x(i))y(i))x(i)j(simultaneously update for every j)}

可以发现,线性回归和逻辑回归的梯度下降算法在形式上看似是一样的,只是其中的假设函数hθ(x)不同,一个是线性模型(多项式),一个是非线性模型(Sigmoid函数),所以本质上是不一样的。

3. 正则化线性回归模型(Regularized Linear Regression Model)

(1)假设函数(Hypothesis Function) hθ(x)

hθ(x)=θTx

(2)代价函数(Cost Function) J(θ)

J(θ)=12m[i=1m(hθ(x(i))y(i))2+λj=1nθ2j]

(3)梯度下降算法(Gradient Descent):

repeat until convergence{θ0:=θ0α1mi=1m(hθ(x(i))y(i))x(i)0θj:=θj(1αλm)α1mi=1m(hθ(x(i))y(i))x(i)j(simultaneously update for every j)}

Notes: 正则化不对第一个参数项 θ0 进行正则化,只对后面的参数进行正则化。

(4)正规方程(Normal Equation)

  • 假设函数(Hypothesis Function)矩阵形式 hθ(x)
    Xθ=y
  • 最优参数解

θ=(XTX+λ000001000000001(n+1)(n+1))XTy

4. 正则化逻辑回归模型(Regularized Logistic Regression Model)

(1)假设函数(Hypothesis Function) hθ(x)

hθ(x)=g(θTx)=11+eθTx

(2)代价函数(Cost Function) J(θ)

J(θ)=1mi=1my(i)[log(hθ(x(i)))+(1y(i))log(1hθ(x(i)))]+λ2mj=1nθ2j

(3)梯度下降算法(Gradient Descent):

repeat until convergence{θ0:=θ0α1mi=1m(hθ(x(i))y(i))x(i)0θj:=θjα[1mi=1m(hθ(x(i))y(i))x(i)j+λmθj](simultaneously update for every j)}

Notes: 正则化不对第一个参数项 θ0 进行正则化,只对后面的参数进行正则化。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值